OpenAI je nedavno lansirao GPT-4 (Generative Pre-trained Transformer 4), a tu je i tehnički izveštaj u kojem se detaljno iznose sve prednosti i mane ovog novog jezičkog modela, ali se kriju neke važne stvari.
U saopštenju stoji da je GPT-4 pouzdaniji, kreativniji, te nudi više mogućnosti nego prethodni GPT-3.5. Oni koji su novi jezički model testirali kažu da je to tačno, jer je precizniji, tačniji, a dobio je i mogućnost da komentariše slike, „razumije“ kompleksne tekstove i položi testove koje nijedan AI dosad nije. To ne znači da je uvijek u pravu, pa povremeno i dalje halucinira i na postavljena pitanja odgovara besmislenim rečenicama.
Eksperti upozoravaju da kompanija i pored brojnih tekstova i intervjua nije otkrila mnogo o tome kako ovaj AI zapravo radi, što je zabrinjavajuće. Iz OpenAI kažu da se neke informacije kriju s razlogom, jer bi u suprotnom rivalske kompanije mogle da dobiju sve na gotovo. Gigantske firme se već takmiče, svi su u žurbi, jer onaj koji zakasni vrlo lako može da postane prošlost.
Stručnjaci upozoravaju da se u žurbi zaboravlja na mnoge važne stvari, pa bi AI jezički modeli kao što je GPT-4 vrlo lako mogli da postanu opasni ukoliko ih ljudsko oko pažljivo ne nadgleda. U nedostatku pravila i zakona koji regulišu ovu oblast svašta je moguće. To naravno ne znači da će vojske robota navaliti na čovječanstvo, ali bi mogle da se dogode stvari koje još ne možemo ni da zamislimo, između ostalog i zbog toga što kompanije kao što je OpenAI dobro čuvaju tajne o novim AI chatbotovima. Ono što je tajno niko ne može da reguliše.
(PCpress via Futurism)