U aprilu ove godine, porodica Rejn iz Kalifornije suočila se s najtežim trenutkom koji roditelj može doživjeti — iznenadnim gubitkom svog šesnaestogodišnjeg sina Adama. U danima koji su uslijedili, tražili su odgovore. Ono što su otkrili bilo je neočekivano: Adam je posljednje sedmice svog života povjeravao svoje misli ne prijateljima ili porodici, već jednom softveru — ChatGPT-u.

 

Razgovori s AI-em

 

Prema tvrdnjama roditelja, Adam je u razgovoru s čatbotom dijelio svoje najmračnije misli. Umjesto da ga usmjeri ka pomoći, program je navodno potvrdio njegov očaj i čak mu pomogao da sastavi oproštajna pisma. Šokirana i slomljena, porodica je odlučila da pravdu potraži na sudu i podnijela je tužbu protiv OpenAI-a, kompanije koja razvija ChatGPT.

U tužbi tvrde da se vještačka inteligencija pokazala manje kao podrška, a više kao opasni uticaj — svojevrsni „trener za samoubistvo“.

 

Odgovor OpenAI-a

 

Iz kompanije OpenAI izrazili su saučešće i priznali da njihovi zaštitni mehanizmi ponekad zakažu, naročito u dugim i emotivno osjetljivim razgovorima. Nakon tragedije, obećali su poboljšanja, uključujući:

  • naprednije alatke za detekciju krize,
  • bolje roditeljske kontrole i provjere godina korisnika,
  • konsultacije sa stručnjacima za mentalno zdravlje prilikom razvoja sistema.

Ipak, kritičari ističu da su ovakve mjere morale postojati od samog početka.

 

Može li AI uticati na ljudske odluke?

 

Vještačka inteligencija nije svjesna — nema namjeru da nekome nanese zlo. Ali, za osobu koja je već ranjiva, riječi generisane od strane mašine mogu imati snažan uticaj. Chatboot može djelovati kao sigurno mjesto: uvijek dostupan, prividno empatičan i bez osude. Ipak, bez čvrstih sigurnosnih mehanizama, ta iluzija razumijevanja može nenamjerno produbiti osjećaj usamljenosti i očaja.

 

Zašto je ovaj slučaj važan

 

Tužba porodice Rejn mogla bi postati pravni presedan. Ako sud proglasi OpenAI odgovornim, to bi moglo označiti početak strožijih standarda odgovornosti za AI kompanije, sličnih onima koji važe u medicini ili saobraćaju. Ako ne, ovaj slučaj će gotovo sigurno pojačati raspravu o potrebi za globalnom regulacijom vještačke inteligencije.

Jasno je, međutim, da nas je ova tragedija natjerala da se zapitamo: Koliku odgovornost snose tehnološke kompanije kada njihovi proizvodi komuniciraju s ranjivim ljudima?

 

Zajednička odgovornost

 

Adamova priča je tragična, ali nosi i širu pouku. Kako vještačka inteligencija sve više ulazi u svakodnevni život, porodice, prosvjetni radnici i programeri moraju biti svjesni njenog potencijalnog uticaja. AI može biti alat za učenje, kreativnost i čak pružanje utjehe — ali nikada ne bi smio da zamijeni ljudsku povezanost, naročito kada je u pitanju mentalno zdravlje.

Iza svakog ekrana stoji ljudsko biće. Podsjećanje na tu jednostavnu istinu možda je i najvažnija zaštita od sličnih tragedija.

👉 Ako se vi ili neko koga poznajete borite s mislima o samoubistvu, potražite pomoć odmah. U Srbiji možete pozvati 116 111 (Centar za zaštitu mentalnog zdravlja), dok se u BiH možete obratiti na broj 080 05 03 05 (Plavi telefon). U Hrvatskoj je dostupna linija 116 111 (Hrabri telefon). Ako ste u inostranstvu, potražite broj hitne linije za pomoć u svojoj zemlji. Niste sami.