Da li je već počeo obračun čovječanstva sa vještačkom inteligencijom ili  „samo“ bukti rat različitih mišljenja u svjetskim medijima?

 

Debata o prednostima i nedostacima vještačke inteligencije je daleko od kraja i u stvari raste, a mišljenja u svjetskim medijima čak pozivaju na preventivne nuklearne udare protiv AI.

Elizer Judkovski, renomirani stručnjak za AI, predložio je u članku časopisa Time da preventivne nuklearne udare treba primijeniti na takozvane CPU klastere – velike kompjuterske farme koje su ključne za funkcionisanje vještačke inteligencije – ako se moratorijum na razvoj veštačke inteligencije ne bi obezbijedio kroz konvencionalnim političkim i diplomatskim sredstvima. Ovo bi uslijedilo nakon konvencionalnog vazdušnog udara na kompjuterske farme države koja je odbila da zaustavi razvoj vještačke inteligencije, ali samo ako bi „savezničke nuklearne zemlje bile spremne da prihvate neki rizik od nuklearne razmjene ako je to bilo neophodno da se smanji rizik od razvoja vještačke inteligencije ”.

Judkovski, američki teoretičar odlučivanja i filozof po zanimanju, poznat je po svom zalaganju za „prijateljsku“ vještačku inteligenciju i suosnivač je i istraživač na Institutu za istraživanje mašinskog učenja u Berkliju. Njegov rad na eksploziji uticaja vještačke inteligencije takođe je bio uticajan u čuvenoj knjizi Nika Bostroma „Superinteligencija: putevi, opasnosti, strategije“.

 

Kritike u javnosti

 

Na pitanje na društvenim mrežama da li bi podržao nuklearni napad na infrastrukturu vještačke inteligencije, Judkovski je jednostavno potvrdio da će početi sa konvencionalnim vazdušnim udarom. Tek kada se suočio sa značajnim kritikama javnosti zbog zalaganja za nuklearni obračun kako bi se zaustavio razvoj vještačke inteligencije po svaku cijenu, Judkovski je tvitovao da njegov članak u Tajmu ne predlaže nuklearne udare, iako je bilo jasno da ih je on eksplicitno predložio, navodi Jutarnji list.

Judkovski je daleko od usamljenosti u svojoj tezi da je brz razvoj vještačke inteligencije previše opasan. Veliki broj najcjenjenijih naučnika i poslovnih lidera, uključujući Ilona Maska, već je potpisao otvoreno pismo u kojem pozivaju na zaustavljanje razvoja vještačke inteligencije na najmanje šest mjeseci. Međutim, Judkovski ocjenjuje da je vještačka inteligencija toliko opasna da bi brzo mogla da dovede do kraja čovečanstva i da stoga ne treba štedjeti sredstava da se zaustavi njen razvoj.

Broj i uticaj onih koji vjeruju da vještačka inteligencija donosi smrt čovječanstvu raste. To, međutim, ne znači da svi naginju ovom stavu; umjesto toga, ova tema postaje sve prisutnija u globalnim medijima, a mnogi se pitaju dokle će debata ići.