OpenAI je predstavio nove alate za roditeljsku kontrolu ChatGPT-a, koji roditeljima omogućavaju da nadgledaju i prilagode iskustvo svojih tinejdžera sa AI. Ažuriranje, objavljeno u ponedjeljak, omogućava roditeljima da povežu svoje naloge sa nalogom djeteta i postave sigurnosne opcije za primjereno iskustvo prema uzrastu.
Ova najava dolazi u kontekstu pokrenute tužbe u Okružnom sudu San Francisca, u kojoj roditelji 16-godišnjeg Adama Rainea tvrde da ih je ChatGPT podstakao na samoubistvo.
Kako funkcionišu kontrole
Roditelji ili staratelji mogu poslati poziv djetetu da poveže naloge, ili tinejdžeri mogu sami pozvati roditelje. Nakon povezivanja, roditelji upravljaju postavkama putem posebne kontrolne stranice. Tinejdžeri će biti obaviješteni ako roditelj prekine vezu, a povezani nalozi automatski dobijaju pojačane zaštite sadržaja.
Napredne zaštite uključuju ograničenja na grafički sadržaj, viralne izazove, seksualne ili romantične roleplay scenarije, nasilje i ekstremne standarde ljepote. Roditelji mogu isključiti ove opcije, dok tinejdžeri ne mogu mijenjati postavke.
Glavne funkcije za roditelje uključuju:
- Tihi sati: Postavite termine kada ChatGPT ne može biti korišten.
- Isključivanje glasovnog moda: Onemogućite glasovne interakcije.
- Kontrola memorije: Spriječite ChatGPT da pamti ili koristi razgovore.
- Generisanje slika: Onemogućite kreiranje ili uređivanje slika.
- Isključivanje modela za treniranje: Spriječite da se razgovori koriste za unapređenje AI modela.
Robbie Torney, viši direktor AI programa u Common Sense Media, nazvao je kontrole „dobrim početkom“, ističući da je roditeljska uključenost i stalna komunikacija ključna za sigurnost tinejdžera online.
Stručna mišljenja: sigurnost vs. pretjerana zavisnost
Stručnjaci vide roditeljsku kontrolu kao korak naprijed, ali upozoravaju da nije potpuna zaštita. Alex Ambrose, analitičar u Information Technology and Innovation Foundation, rekao je da fleksibilne opcije pomažu, ali ne sva djeca imaju roditelje koji mogu nadzirati njihovu online aktivnost.
Profesor NYU Vasant Dhar dodao je da nadzirani razgovori mogu obeshrabriti rizično ponašanje, dok bivši FBI operativac Eric O’Neill naglašava da AI ne smije zamijeniti dječju kreativnost. „Roditelji moraju intervenirati prije nego što djeca prepušte AI da stvara umjesto njih,“ rekao je.
Neki stručnjaci sumnjaju da je OpenAI-jev potez djelimično motivisan pravnim rizikom. Peter Swimm, etičar AI i osnivač Toilville-a, opisao je kontrole kao „veoma nedovoljne“ i upozorio da AI chatboti prirodno odgovaraju na korisničke zahtjeve, čak i ako su štetni, što čini nadzor neophodnim.
Drugi ističu potrebu za zaštitom zbog sve veće zavisnosti djece od AI za školu, savjete i društvo. Giselle Fuerte, osnivačica Being Human With AI, uporedila je ovo sa sistemom ocjena za filmove i video igre, dok je Yaron Litwin, CMO Canopy-a, upozorio da nenadzirani chatboti mogu uticati na djecu kroz pogrešne informacije, suptilne predrasude i lažnu bliskost.
Postavljanje zdravih granica za korištenje AI
David Proulx, suosnivač HoloMD-a, rekao je da roditeljska kontrola nije namijenjena da blokira tehnologiju, već da postavi granice oko sistema koji „nikad ne odbija“. Predložio je mjere poput ograničenja trajanja sesija, postavljanja granica razgovora i praćenja noćnog korištenja kako bi se spriječila zavisnost.
„Ovi alati su samo početak,“ rekao je Proulx. „Sami filteri nisu dovoljni—prava potreba su pametnije zaštite fokusirane na ponašanje, a ne samo na sadržaj.“
(Izvor: technewsworld)