Pojam “AI psihoza” sve više dobija na popularnosti nakon što su korisnici na društvenim mrežama počeli dijeliti iskustva o gubitku dodira sa stvarnošću nakon intenzivne upotrebe chatbotova poput ChatGPT-a.

 

Šta je AI psihoza?

 

Iako nije klinički definisana, AI psihoza se neformalno koristi za opisivanje simptoma poput lažnih uvjerenja, paranoičnih osjećanja i zabluda o sopstvenoj veličini, koji se mogu javiti nakon dugih interakcija sa AI chatbotom. Mnogi korisnici su mu se obraćali radi jeftine “terapije” ili savjeta nalik profesionalnim.

Fenomen se poredi sa izrazima poput “doomscrolling” ili “brain rot”. Međutim, s obzirom na to da ChatGPT danas ima skoro 700 miliona korisnika sedmično, psiholozi sve češće upozoravaju na moguće posljedice po mentalno zdravlje.

“Fenomen je toliko nov i širi se tako brzo da jednostavno nemamo dovoljno dokaza da ga u potpunosti razumijemo. Trenutno postoje samo brojna anegdotalna svjedočenja,” kaže Vaile Wright iz Američkog psihološkog udruženja (APA).

 

Stručnjaci upozoravaju i najavljuju istraživanja

 

Zbog sve većeg broja prijava uznemirujućih iskustava sa chatbot-ovima, APA je formirala stručni panel koji će proučavati uticaj AI asistenta na mentalno zdravlje. Rezultati istraživanja i preporuke za smanjenje štetnih efekata očekuju se u narednim mjesecima.

Tradicionalno, psihoza je stanje povezano sa šizofrenijom, traumom, drogama ili nedostatkom sna, a dijagnostikuje se na osnovu simptoma poput halucinacija ili dezorganizovanog mišljenja. Termin “AI psihoza” se, međutim, koristi kao neformalna oznaka za slično stanje koje nastaje usljed pretjeranog vremena provedenog u razgovoru sa AI-jem, uključujući:

  • vjerovanje u netačne odgovore generisane od strane AI-ja
  • stvaranje emotivnih veza sa AI personama
  • oslanjanje na chatbotove u donošenju krucijalnih životnih odluka

 

Kako reaguju tehnološke kompanije?

 

OpenAI razvija nadogradnje koje će omogućiti da ChatGPT:

  • prepozna znakove emocionalne ili mentalne krize
  • uputi korisnika ka provjerenim resursima i stručnim informacijama
  • izbjegne davanje konačnih odgovora u osjetljivim situacijama (npr. ljubavni odnosi), te korisnika umjesto toga vodi kroz pitanja, prednosti i mane

Anthropic, kompanija iza Claude modela, uvela je opciju da chatbot samoinicijativno prekine razgovor ako korisnik postane uvredljiv ili štetan.

Meta je, s druge strane, uvela roditeljsku kontrolu na Instagram Teen nalozima, kako bi se ograničilo vrijeme koje djeca provode u razgovoru sa AI chatbotovima. Takođe, svi korisnici koji unesu upite povezane sa samoubistvom dobiće brojeve telefona SOS linija i korisne linkove za podršku.

 

Budućnost odnosa čovjeka i AI-ja

 

Iako “AI psihoza” još uvijek nije medicinski priznat termin, njen rastući značaj pokazuje koliko je važno istražiti psihološki uticaj vještačke inteligencije. Stručnjaci upozoravaju da, iako AI može biti koristan alat, ne smije postati zamjena za profesionalnu pomoć.