Četiri najuticajnije kompanije u oblasti vještačke inteligencije formirale su grupu koja će na nivou čitave industrije nadgledati siguran razvoj najnaprednijih AI modela.
Organizaciju „Frontier Model Forum“ formirali su kompanija Open AI koja je razvila čet-bota ChatGPT, zatim Microsoft, Google, vlasnik AI kompanije „Deep Mind“ sa sjedištem u Velikoj Britaniji i kompanija Antropik.
Predstavnici ove grupe kažu da će fokus biti na bezbjednom i odgovornom razvoju najnaprednijih modela vještačke inteligencije (AI), misleći pritom i na buduću tehnologiju zasnovanu na vještačkoj inteligenciji koja će biti mnogo naprednija od alata koji su trenutno dostupni, piše „The Guardian“.
„Kompanije koje razvijaju tehnologiju zasnovanu na vještačkoj inteligenciji odgovorne su za stvaranje bezbijednog proizvoda koji mora ostati pod kontrolom čovjeka“, rekao je Bred Smit, predsjednik Microsofta.
On dodaje da je ova inicijativa ključni korak za zbližavanje tehnološkog sektora na polju odgovornog razvijanja vještačke inteligencije na način na koji će cijelo čovječanstvo od toga imati koristi.
Članovi foruma navode da su njihovi glavni ciljevi promovisanje istraživanja bezbjednosti vještačke inteligencije, kao što je razvoj standarda za procjenu modela; podsticanje odgovorne primjene naprednih modela zasnovanih na vještačkoj inteligenciji; razmatranje bezbjednosnih rizika i povjerenja u vještačku inteligenciju sa političarima i stručnjacima; podrška razvoja pozitivnih upotreba vještačke inteligencije kao što je borba protiv klimatske krize i rano otkrivanje raka.
Oni dodaju da je članstvo u grupi otvoreno za organizacije koje razvijaju granične modele, koji su definisani kao „veliki modeli mašinskog učenja koji prevazilaze mogućnosti koje su trenutno prisutne u najnaprednijim postojećim modelima, i mogu da obavljaju širok spektar zadataka“.
Najava o osnivanju ove grupe stiže u trenutku kada sa se ubrzava regulisanje tehnologije. U petak su tehnološke kompanije – uključujući članice grupe „Frontier Model Forum“ – pristale na nove zaštitne mjere u vezi sa vještačkom inteligencijom poslije sastanka sa Džozefom Bajdenom u Bijeloj kući.
Obaveze usvojene na sastanku uključuju označavanje sadržaja koji proizvode alati zasnovani na vještačkoj inteligenciji, kako bi se olakšalo uočavanje obmanjujućih materijala (poput takozvanih deepfakes) i omogućavanje nezavisnim stručnjacima da testiraju AI modele.
Saopštenje Bijele kuće naišlo je na skepticizam od strane nekih aktivista koji ocjenjuju da je tehnološka industrija poznata po nepoštovanja pravila o samoregulaciji. Prošlonedjeljnu najavu Mete da će objaviti model vještačke inteligencije jedan stručnjak je opisao kao „davanje ljudima šablona za pravljenje nuklearne bombe“, prenosi „Nova“.
Grupa Frontier Model Forum ističe da su „važan doprinos“ bezbjednosti dala tijela poput vlade Ujedinjenog Kraljevstva, koja je sazvala globalni samit o bezbjednosti u oblasti vještačke inteligencije, i EU, koja uvodi zakon o vještačkoj inteligenciji koji predstavlja najozbiljniji zakonodavni pokušaj da se reguliše trenutno najbrže rastuća tehnologija.