Da li je veštačka inteligencija zaista pretnja čovečanstvu?

Izvor: B92, 06.Dec.2014, 17:44   (ažurirano 02.Apr.2020.)

Da li je veštačka inteligencija zaista pretnja čovečanstvu?

Pre nekoliko dana, Stiven Hoking dao je intervju za BBC u kom je rekao da će potpuni razvoj veštačke inteligencije označiti kraj čovečanstva.

Foto: Saad Faruque

Ben Medlok, jedan od osnivača britanske firme Swiftkey, koja je unapredila Hokingov sistem za komunikaciju, smatra da je naša odgovornost da imamo u vidu i loše i dobre posledice razvoja veštačke inteligencije.

Ipak, on je skeptičan u pogledutoga koliko smo blizu potpunom razvoju takve tehnologije.
>> Pročitaj celu vest na sajtu B92 << />
“Osnivači te grane, među kojima je i Alan Tjuring, bili su preterano optimistični u pogledu toga šta mogu da postignu sa veštačkom inteligencijom”, kaže on.

Medlok ističe da je postignut delimičan uspeh u pogledu složenih zadataka, poput upotrebe mašina u prevođenju sa stranih jezika, ali veruje da je replikovanje procesa ljudskog mozga daleko od nas.

“Potcenjujemo prirodu i naše okruženje i složenost čovekovog uma”, objašnjava on. “Svaku spekulaciju o izvesnosti potpuno razvijene veštačke inteligencije treba uzeti s rezervom”.

Iako Medlok nije jedini koji veruje da se prerano brinemo za posledice takvog napretka tehnologije, mnogi uviđaju etičke probleme koji okružuju tehnologiju u fazi u kojoj je danas.

Google, koji je kupio britansku AI firmu DeepMind ranije ove godine, otišao je predaleko ispitujući ovu temu.

Osnivač DeepMinda Demis Hasabis rekao je ranije da je potpisao prodaju samo zato što je Google garantovao da tehnologija nikad neće biti upotrebljena u vojne svrhe.

To naravno zavisi od dugoročnog gledišta Googleovog komiteta za etiku i ne postoje garancije da se vlasnici Googlea za 50 godina predomisliti.

Celo pitanje je razrađeno i u izveštaju dve akademije na Oksfordu pod nazivom “Robo-ratovi: Regulisanje robotskog naoružanja” koji ukazuje na potrebu za zakonima koji će tačno definisati takvo oružje u ratovima 21. veka.

“Naročito sam zabrinut za situacije u kojima se čovek isključuje iz čina ubijanja i rata”, kaže dr Aleks Leveringhaus, vođa studije.

On ističe da veštačka inteligencija već počinje da se upliće u naoružanje.

“Sofisticirani sistemi mogu da uđu u područje i potraže mete, a da niko ne mora da pritisne ni dugme”, objašnjava on.

Međutim, Leveringhaus koji je prema sopstvenom priznanju više filozof nego IT stručnjak, oprezan je u pogledu toga ima li ičeg novog u takvim dilemama.

On ističe da su slična etička pitanja već bila postavljana u svakoj fazi razvoja ratnog naoružanja, još od dolaska artiljerije koja je omogućila ubijanje neprijateljskih vojnika, do automatizacije ratnih letelica bombardera.

Leveringhaus ipak smatra da je opažanje Stivena Hokinga na mestu.

“Potrebna nam je društvena debata o veštačkoj inteligenciji. To je važna tema”, kaže on.

Potreba za takvom debatom sve je hitnija, zbog naglog tehnološkog razvoja. Prošle nedelje britanska vlada najavila je tri projekta automobila bez vozača, a Medlok smatra da se u autonomnim vozilima kriju brojni etički problemi.

“Imamo tradicionalan zakonski sistem koji se bavi slučajevima u kojima su ljudi ti koji upravljaju vozilom”, objašnjava on.

“Ako imamo auto bez vozača, možete li zamisliti scenario u kom računar u nekoj opasnoj situaciji u saobraćaju, treba da odluči da li će da zaštiti putnike automobila, ili one koji se nalaze oko njega”.

Takva vrsta dilema javljaće se u raznim oblicima u zavisnosti od toga do kojih će sve pora društva dopreti pametne mašine.

Hokingova teorija o tome da će nas veštačna inteligencija učiniti izlišnim, možda jeste daleka, ali nam se već sada postavlja pitanje koliko slobode treba da damo pametnim uređajima koji nas okružuju.

Nastavak na B92...



Napomena: Ova vest je automatizovano (softverski) preuzeta sa sajta B92. Nije preneta ručno, niti proverena od strane uredništva portala "Vesti.rs", već je preneta automatski, računajući na savesnost i dobru nameru sajta B92. Ukoliko vest (članak) sadrži netačne navode, vređa nekog, ili krši nečija autorska prava - molimo Vas da nas o tome ODMAH obavestite obavestite kako bismo uklonili sporni sadržaj.