Na Redditu se pojavila tema „Kako ispeći bjelanca bez tave“, a kao što to obično i biva, mnogi su se korisnici uključili u ovu raspravu.
Neki su rekli da će da pokušaju, drugima se to nije činilo kao posebno pametna ideja, a neki su čak išli toliko daleko da su ponudili da će da prouče naučnu literaturu vezanu za termičku obradu bjelanaca.
Ova rasprava ne bi se posebno razlikovala od ostalih podjednako besmislenih rasprava kakve se svakodnevno odvijaju na Redditu da je nisu vodili pravi ljudi, već botovi koje pokreće vještačka inteligencija.
Alat za stvaranje pisanih lažnih vijesti
Ideja je bila da se pokrenu niz tema na Redditu kako bi botovi bili istrenirani za komunikaciju nalik onoj kakvu inače vode korisnici na Redditu.
Ovaj simulirani forum stvorio je jedan od korisnika koristeći alat naziva GPT-2, a radi se o generatoru mašinskog jezika koji je u februaru predstavio OpenAI, jedan od vodećih svjetskih laboratorija vještačke inteligencije.
Jack Clark iz OpenAI-a rekao je za Guardian da strahuje od toga da bi se alat u budućnosti mogao da koristi u masovnom širenju lažnih informacija te predviđa korišćenje u svrhu „stvaranja pisanih lažnih vijesti, oponašanja ljudi koji proizvode veliku količinu online tekstova ili generisanja trolaške propagande za društvene mreže“.
GPT-2 je primjer tehnike koju nazivamo modeliranje jezika, a uključuje obučavanje algoritama da predvide sljedeću najizvjesniju riječ u rečenici.
Dok su se prijašnji modeli borili sa stvaranjem logičkog teksta, kombinacija veće količine sirovih podataka (za obuku GPT-2 korišćeno je osam milijona online članaka) i bolji algoritmi učinili su ovaj model najfunkcionalnijim do danas.
Najjednostavnije rečeno, funkcioniše kao Googleov auto-complete ili predviđanje teksta kakvo postoji u porukama. Ali umjesto da nudi prijedloge od jedne riječi, predložite li mu rečenicu, u stanju je generisati odlomke u tom stilu.
Na primjer, ako mu date jednu rečenicu iz Šekspirovog djela, može da odgovori u stilu Šekspira. Nadalje, date li mu samo naslov novinskog članka, generisaće tekst koji izgleda gotovo kao novinski članak.
Poboljšanje komunikacije u budućnosti
Postoji, naravno, i pozitivna strana. Alec Radford iz OpenAI ovo vidi kao korak prema boljoj komunikaciji između ljudi i mašina. Ideja je bila omogućiti računarima da lakše svladaju jezik što će kao rezultat imati bolje prepoznavanje govora (korisni za Siri i Alexu) ili mašinsko prevođenje (Google Translate).
Jednom kad alat završi na internetu, postoji bezbroj primjena i većinom se radi o suludim, beskorisnim ili štetnim načinima na koji se koristi.
Toga su svjesni i u OpenAI pa su još u februaru objavili da je riječ o nezavršenoj verziji GPT-2 budući da imaju razloga da sumnjaju da će se koristiti u štetne svrhe.
Clark je GPT-2 uporedio s „deepfake“ videima (mašinski stvorene slike i videi koji stvaraju privid da je neko rekao ili učinio nešto što nije): „U načelu su isti. Imate tehnologiju koja lažiranje nečega čini jeftinijim i lakšim što znači da će u budućnosti biti još teže prepoznati istinitu informaciju.“
Da li je opasnost preuveličana?
Ipak, postoje i oni koji tvrde da je opasnost preuveličana i da je pred nama još dalek put prije nego će ovo stvoriti pravu prijetnju.
Dodaju i da je OpenAI priču prenaduvao s ciljem da stvori pompu oko vlastitog istraživanja, a opasnost od generisanih lažnih tekstova smještaju na dno liste potencijalnih prijetnji.
Razlozi su vrlo jednostavni. Širenje lažnih vijesti je problem, ali oni koji takve vijesti šire čine to bez pomoći sofisticirane tehnologije jer za to jednostavno nema potrebe.
Širenje lažnih vijesti je u prvom redu političko-kulturološki, a ne tehnološki problem. Ne treba nam bolja tehnologija za detekciju kako bismo riješili ovaj problem već proučavanje društvenih uslova koji su širenje lažnih vijesti pretvorili u stvarnost.