Prevaranti koriste AI glasove: "žrtva prometne nesreće zove majku i traži novac za jamčevinu"
Zanimljiva uporaba umjetne inteligencije za prevare u Americi: žena na Floridi prevarena je nakon što je glas njezine kćeri kloniran pomoću umjetne inteligencije

Prema pisanju na stranicama Malwarebytesa kućanica s Floride je primila poziv od nekoga tko je zvučao točno poput njezine kćeri koja jecala je govoreći majci da je izazvala prometnu nesreću u kojoj je „teško ozlijeđena trudnica“. Rekla je da je pisala poruke i vozila te da joj je policija sada oduzela telefon. Majka tvrdi da je bila uvjerena da je poziv autentičan jer „zna plač svoje kćeri".
Muškarac koji se predstavljao kao navodni odvjetnik tada je preuzeo telefon. Rekao je majci da vlasti zadržavaju njezinu kćer i da treba osigurati 15.000 dolara u gotovini za jamčevinu. Dao joj je vrlo specifične upute što treba učiniti, uključujući i to da ne govori banci za što je veliko podizanje novca, jer bi to, kako je rekao, moglo utjecati na kreditni rejting kćeri.
Žrtva je podigla novac, stavila ga u kutiju („a sucker is born every minute“, kažu Ameri, ili nama bliži Talijani „"La mamma degli idioti è sempre incinta" – majka idiota uvijek je trudna), a vozač ga je pokupio, nakon čega je uslijedio novi poziv koji ju je obavijestio da je "nerođeno dijete trudnice preminulo u nesreći", ali da se obitelj složila da neće tužiti ako im se plati 30.000 dolara.
Na bakinu sreću, njezin unuk nije vjerovao u cijelu priču i odlučio je nazvati majku, koja je bila na poslu, nesvjesna svega što se događalo.
Tl;dr – ostali su „samo“ bez 15.000 dolara
Pouka je da je kloniranje glasova pomoću umjetne inteligencije postalo je lako dostupno svima, uključujući i kibernetičke kriminalce. Mnogi naši glasovi su online u videima objavljenih na društvenim mrežama. U ovom konkretnom slučaju vjeruju se da su prevaranti koristili videozapise s Facebooka ili drugih društvenih mreža kako bi stvorili repliku glasa.
Telefonske prijevare pokretane umjetnom inteligencijom mogu varirati od kratkih, skriptiranih robotskih poziva do potpunih razgovora. Nedavne studije pokazale su da se više ne možemo pouzdano osloniti na ljudsku percepciju za otkrivanje glasova generiranih umjetnom inteligencijom. Još je teže to utvrditi kada je glas napravljen da zvuči stresno i uzrujano, a mi vjerujemo da je to netko nama blizak.
Međutim, kada znamo da je i to moguće, stručnjaci savjetuju sljedeće procedure za zaštitu od ovakvih prijevara:
Za početak ne odgovarajte na pozive s nepoznatih brojeva i budite oprezni gdje ste na internetu objavili audio i video zapise na kojima se čuje vaš glas.
Dogovorite obiteljsku lozinku koju znate samo vi i vaši bližnji. Nikada je nemojte objavljivati ili slati porukama bilo gdje na Internetu, dogovorite je osobno i držite je se.
Ako je nemate ili ste zaboravili lozinku, pitajte o nekom davnom sjećanju koje nije objavljeno na društvenim mrežama. Budite sigurni da je onaj s kim razgovarate osoba za koju se izdaje.
Ne pokušavajte se sami nositi s ovakvim situacijama. Pronađite prijatelja, člana obitelji, ili bilo koga tko vam može osjetljivo dati svoje mišljenje ili vas podržati ako ste nasjeli na prijevaru.