OpenAI se bori protiv globalnih kriminalnih grupa koje zloupotrebljavaju AI tehnologiju
OpenAI pojačava napore u borbi protiv široke zloupotrebe alata vještačke inteligencije (AI) od strane kriminalnih grupa. U nedavnom izvještaju, OpenAI je otkrio da je u samo tri mjeseca zatvorio deset velikih mreža koje koriste AI za sajber-napade, čime potvrđuje svoju snažnu posvećenost suzbijanju online prijetnji.
Kako kriminalne grupe koriste AI za sajber kriminal i dezinformacije
Kriminalci sve više koriste AI generisani sadržaj za izvođenje sofisticiranih prevara i uticajnih kampanja. Na primjer, kineske hakerske grupe su koristile AI da poplave društvene mreže poput TikToka i X (bivši Twitter) lažnim komentarima i člancima, predstavljajući se kao stvarni korisnici u kampanji nazvanoj Sneer Review. Takođe, kineski akteri su kreirali lažne profile – kao što su bivši američki veterani – kako bi manipulirali podijeljenim političkim debatama o temama poput tarifa u operaciji nazvanoj Uncle Spam.
Sjevernokorejski hakeri koriste AI za pravljenje lažnih biografija i prijava za posao, ciljajući IT pozicije širom svijeta, vjerovatno da bi pristupili osjetljivim informacijama. Ruske kriminalne grupe koriste AI tehnologiju za razvoj zlonamjernog softvera i planiranje sajber-napada. Jedna poznata operacija, ScopeCreep, fokusirala se na kreiranje malvera za krađu podataka.
Iranske državne grupe, uključujući STORM-2035 (takođe poznatu kao APT42), koriste AI za kreiranje tvitova i lažnih profila na društvenim mrežama na engleskom i španskom jeziku, šireći političku propagandu. Njihove kampanje se fokusiraju na osjetljiva pitanja kao što su imigraciona politika SAD-a i nezavisnost Škotske.
Prevare uz pomoć AI ciljaju žrtve širom svijeta
AI je takođe alat u međunarodnim prevarama. Prevara nazvana Wrong Number, za koju se vjeruje da potiče iz Kambodže, koristi AI za prevođenje poruka na više jezika, obećavajući visokoplaćene online poslove za jednostavne zadatke poput lajkovanja objava na društvenim mrežama. Ova višejezična AI prevara funkcioniše preko aplikacija kao što su WhatsApp i Telegram, varajući žrtve lažnim zaradama i traženjem novca za veće “nagrade”.
Proaktivne bezbjednosne mjere OpenAI-ja
Da bi se suprotstavio ovim prijetnjama, OpenAI koristi vlastite AI sisteme za detekciju i blokiranje zlonamjernih naloga i kampanja u ranoj fazi. Ovaj proaktivan pristup pomogao je da se smanji stvarni uticaj mnogih AI zasnovanih sajber napada i kampanja dezinformacija.
Pravne prepreke: privatnost korisnika protiv transparentnosti
OpenAI se suočava sa ozbiljnim pravnim izazovom u vezi sa privatnošću korisnika. Dana 13. maja, američki sud naložio je kompaniji da sačuva sve ChatGPT razgovore kao dio tužbe za kršenje autorskih prava koju su podnijeli The New York Times i drugi izdavači. Tužioci tvrde da je OpenAI nezakonito koristio milione zaštićenih članaka za treniranje svojih modela bez dozvole, ugrožavajući njihov poslovni model tako što ChatGPT može reproducirati ili sažeti njihov sadržaj.
OpenAI se protivi ovoj naredbi, ističući svoju posvećenost zaštiti privatnosti korisnika. Kompanija naglašava da mnogi korisnici dijele osjetljive lične podatke tokom razgovora na ChatGPT-u i očekuju da ti podaci ostanu privatni ili budu obrisani. Ova sudska odluka predstavlja složen izazov za OpenAI, koji mora da balansira između transparentnosti i zaštite privatnosti korisnika.