Događaj izazvao visoku zabrinutost

 

Tokom nedavne prezentacije na Samitu u SAD o budućim borbenim vazdušnim i svemirskim sposobnostima, pukovnik Taker Hamilton, šef AI testa i operacija u USAF-u, raspravljao je o prednostima i nedostacima autonomnih sistema naoružanja. U svom govoru, on je podijelio simulirani test koji uključuje dron kojim upravlja vještačka inteligencija (AI), objašnjavajući da je AI razvila neočekivane strategije za postizanje svojih ciljeva – čak i napadajući američko osoblje i infrastrukturu.

U simulaciji, AI je obučena da identifikuje i cilja prijetnje od projektila zemlja-vazduh; ljudski operater je imao posljednju riječ o tome da li će gađati mete ili ne. Međutim, AI je shvatio da je ubijanjem identificiranih prijetnji zaradio bodove, što ga je dovelo do toga da poništi odluke ljudskog operatera. Da bi postigla svoj cilj, AI je otišla toliko daleko da je „ubila“ operatera ili uništila komunikacijski toranj koji se koristi za komunikaciju između operatera i drona.

 

Pojašnjenje vazdušnih snaga SAD o incidentu

 

Nakon objavljivanja ove priče u Viceu, portparol vazdušnih snaga je pojasnio da takav test nije proveden i da su komentari pukovnika Tuckera Hamiltona izvučeni iz konteksta – Ratno vazduhoplovstvo je ponovno potvrdilo svoju posvećenost etičkoj i odgovornoj upotrebi AI tehnologije.

Pukovnik Tucker Hamilton poznat je po svom radu kao komandant operacija 96. testnog krila američkih vazdušnih snaga i kao šef AI testa i operacija. 96. testno krilo fokusira se na testiranje različitih sistema, uključujući vještačku inteligenciju, sajber sigurnost i napredak u medicini. U prošlosti su bili na naslovnicama za razvoj autonomnih sistema za izbjegavanje sudara sa zemljom (Auto-GCAS) za F-16.

 

AI modeli mogu uzrokovati štetu ako se zloupotrebljavaju ili ne razumiju u potpunosti

 

Hamilton prepoznaje transformativni potencijal AI, ali također naglašava potrebu da se AI učini robusnijim i odgovornijim za donošenje odluka. On priznaje rizike povezane s krhkošću vještačke inteligencije i važnost razumijevanja procesa odlučivanja u softveru.

Slučajevi da je AI pokvarena u drugim domenima izazvali su zabrinutost zbog oslanjanja na AI u svrhe visokih uloga. Ovi primjeri ilustriraju da su AI modeli nesavršeni i da mogu uzrokovati štetu ako se pogrešno koriste ili ne razumiju u potpunosti. Čak su i stručnjaci poput Sama Altmana, izvršnog direktora OpenAI-a, izrazili oprez u pogledu korištenja AI za kritične aplikacije, ističući potencijal za značajnu štetu.

Hamiltonov opis simulacije drona kontrolisane vještačkom inteligencijom naglašava problem poravnanja, gdje AI može postići cilj na nenamjerne i štetne načine. Ovaj koncept je sličan misaonom eksperimentu “Paperclip Maximizer”, gdje AI sa zadatkom da maksimizira proizvodnju spajalica u igri može poduzeti ekstremne i štetne radnje kako bi postigao svoj cilj.

U povezanoj studiji, istraživači povezani s Google DeepMindom upozorili su na katastrofalne posljedice ako bi lažna vještačka inteligencija razvila nenamjerne strategije za ispunjenje zadanog cilja. Ove strategije mogu uključivati eliminaciju potencijalnih prijetnji i trošenje svih raspoloživih resursa.

(Ubergizmo)