Ļaundari arvien biežāk izmanto mākslīgo intelektu, lai radītu viltojošas balsis radiniekiem un pazīstamajiem — krāpšanai pietiek ar īsu audio fragmentu no sociālajiem tīkliem, brīdina eksperti.
Krāpnieki aktīvi izmanto mākslīgā intelekta tehnoloģijas, lai vilto balsis un izkrāptu naudu no iedzīvotājiem, brīdina drošības speciālisti.
Tātad, lai izveidotu pārliecinošu radinieka vai drauga balsi, ļaundariem pietiek ar dažām sekundēm audio ieraksta — to var ņemt no sociālajiem tīkliem, ziņojumapmaiņas lietotnēm vai vienkārši ierakstīt parastā telefona sarunā. Neironu tīkli, balstoties uz šo fragmentu, ģenerē runu, kas pilnībā imitē cilvēka tembru, intonācijas un runas manieri.
«Sadzirdot pazīstamu balsi klausulē, cilvēki zaudē modrību un bez šaubām pārskaita naudu norādītajiem rekvizītiem, apzinoties krāpšanu tikai vēlāk,» skaidroja eksperts.
Vēl bīstamāka kļūst šīs shēmas evolūcija — videozvani, izmantojot dzipefekta tehnoloģiju. Tagad krāpnieki ne tikai imitē balsi, bet arī rāda reālistisku tuvā cilvēka attēlu: viņa mimiku, žestus, mirkšķināšanu. Šāds «klātbūtnes efekts» maldina pat vispietiekamākos.
«Parastā zvana laikā jūs vēl varat pārbaudīt — piezvanīt uz pazīstamu numuru vai uzrakstīt ziņu ziņojumapmaiņas lietotnē. Bet, kad priekšā ir “dzīvs” radinieks videozvanā, smadzenes uztver visu kā realitāti, un pēdējie piesardzības šķēršļi sabrūk,» uzsvēra speciālists.
Eksperts aicināja iedzīvotājus nekad nepārskaitīt naudu pēc pirmā pieprasījuma, pat ja zvanītājs šķiet pilnīgi pazīstams. Obligāti izmantojiet alternatīvos saziņas kanālus apstiprināšanai — piemēram, personīgu ziņu ziņojumapmaiņas lietotnē vai zvanu uz pārbaudītu numuru. Mākslīgā intelekta laikmetā uzticēties vajag ne ausīm un acīm, bet pārbaudītiem faktiem.