Milioni bi mogli postati žrtve prevare vođene veštačkom inteligencijom koja klonira ljudske glasove. Naime, Starling banka, sa sedištem u Velikoj Britaniji, upozorila je da su prevaranti sposobni da repliciraju nečiji glas. Sve što im treba je audio snimak od tri sekunde. Takav snimak se lako može naći na snimku koji osoba objavi, u, na primer, Instagram storiju, piše CNN, prenosi N1.
Od bliskih ljudi traže novac
Prevaranti tada lako identifikuju ko su njeni ili njegovi prijatelji i članovi porodice, a zatim koriste klonirani glas da lažiraju poziv tražeći od njih novac. Ove vrste prevara imaju potencijal da „prevare milione“, navodi banka u saopštenju od srede. Oni su već prevarili stotine.
Prema anketi od 3.000 ljudi, više od četvrtine ispitanika reklo je da je iskusilo prevare u vezi sa kloniranjem glasova pomoću veštačke inteligencije u protekloj godini.
Gotovo polovina njih nije znala da opasnost uopšte postoji, a osam odsto bi poslalo novac koji bi od njih zatražio prijatelj ili član porodice, čak i ako im se taj poziv činio neobičnim.
„Ljudi redovno objavljuju sadržaj koji sadrži snimke njihovog glasa, ne misleći da bi to moglo da ih učini podložnim prevari“, rekla je Liza Grejm, glavni službenik za bezbednost informacija Sterling banke.
Kako se odbraniti?
Banka predlaže da ljudi smisle „šifru“ koju mogu da koriste u razgovorima sa voljenim osobama, a koja se razlikuje od ostalih bezbednosnih kodova koje koriste za proveru identiteta. Oni preporučuju da takvu šifru ne delite dalje u pisanoj formi.
Kako se veštačka inteligencija prilagođava i razvija, postaje sve sposobnija da imitira ljudske glasove. Stručnjaci su sve više zabrinuti zbog njegove sposobnosti da šteti ljudima; na primer, deljenjem lažnih informacija.
Ranije ove godine, OpenAI, proizvođač AI chatbot ChatGPT, predstavio je svoj alat za replikaciju glasa, Voice Engine, ali ga nije učinio dostupnim javnosti, navodeći „potencijal za zloupotrebu sintetičkog glasa“.
Pratite Krstaricu na www.krstarica.com