Upozorenje naučnika: Ovo su najveće opasnosti koje donosi veštačka inteligencija

Izvor: B92, 04.Maj.2023, 11:52

Upozorenje naučnika: Ovo su najveće opasnosti koje donosi veštačka inteligencija

Svakog dana raste spisak naučnika koji istupaju u javnost upozoravajući na opasnosti od neregulirane veštačke inteligencije koja se ubrzano razvija u najvećim svetskim tehnološkim laboratorijima.

Mnogi se pitaju čega se to tačno stručnjaci plaše kada je u pitanju tehnologija budućnosti koja je već deo svakodnevnog života.

Kratkoročni, srednjoročni i dugoročni rizik da nam AI neće doneti ništa dobro odnosi se na smanjenje broja radnih mesta, gubitak privatnosti, >> Pročitaj celu vest na sajtu B92 << preplavljivanje prostora za javni diskurs lažnim ili iskrivljenim sadržajima, diskriminaciju, produbljivanje društveno-ekonomskog jaza, izazivanje šokova na tržištima i najapokaliptičniju mogućnost – uspon robota-ubica ili u najmanju ruku njihov pad u pogrešne ruke.

Posljednji naučnik koji je poslao dramatičnu poruku svetu, Džofri Hinton, jedan je od kreatora sistema koji stoji iza veštačke inteligencije. Hinton je nedavno predao svoj otkaz u Googleu u kojem je radio kao istraživač, uz objašnjenje da "želi slobodu kako bi svetu mogao da kaže o opasnostima daljeg razvoja AI-ja bez strogih pravila".

U fokusu kritičara je nekoliko rizika koje donosi veštačka inteligencija.

1. Društvena manipulacija

Ona je već deo sveta u kojem živimo. Naime, društveni mediji putem svojih autonomnih algoritama veoma su efikasni u ciljanom marketingu. Znaju ko smo, šta volimo i izuzetno su vešti u pogađanju onoga što mislimo.

Strah od toga šta sve veštačka inteligencija može, i na koji je način je sposobna da manipuliše našim ponašanjem, izazivaju primeri od kojih je najskoriji onaj s Ferdinandom Markosom mlađim koji je, koristeći vojsku trolova, na društvenoj mreži TikTok pridobio glasove mlađih Filipinaca na izborima prošle godine.

"Porota o tom slučaju još raspravlja", ali moguće je i da se kompanija Cambridge Analytica 2016. godine okoristila privatnim podacima 50 miliona korisnika Facebooka kako bi uticala na ishod predsedničkih izbora u Americi na kojima je pobedio Donald Trump i referenduma o Brexitu. Obe "odluke naroda" imale su dalekosežne posledice. Recept je jednostavan: algoritmi i privatni podaci upotrebljavaju se za identifikaciju pojedinaca na koje se usmerava propaganda i vrši manipulacija.

Već je dovoljno teško razlikovati veštačku inteligenciju od stvarnih osoba, što uticaj AI-ja u virtuelnom svetu čini strahovitim.

2. Gubitak radnih mesta

Zbog veštačke inteligencije mnogi bi mogli da ostanu bez posla, a ta stvarnost mogla bi biti bliža nego što mnogi misle. To se ne odnosi samo na najteže poslove, nego i na one koji, prema rečima Maksa Erika Tegmarka, fizičara i velikog kritičara nekontrolisanog razvoja AI-ja, ispunjavaju smislom ljudske živote. Štaviše, veštačka inteligencija više preti poslovima "belih kragni" nego fizičkim radnicima. AI se već obilno upotrebljava u marketingu, proizvodnji i zdravstvu.

Ali, prema procenama Goldman Sachsa, računari bi u potpunosti na globalnom nivou mogli da preuzmu 18 odsto radnih mesta. Strateg Kris Mesina, kreator hashtaga (#), navodi da su sledeći na meti za robotsko preuzimanje poslovi računovođa i pravnici. "U tom sektoru videćemo velika previranja", smatra Mesina.

3. Gubitak privatnosti

Razvoj tehnologije omogućio je praćenje i analizu svega što pojedinci rade dok su onlajn, ali i na fizičkom planu. Kamere su gotovo svuda, a algoritmi za prepoznavanje lica znaju dobro ko je ko. Na osnovu tih sistema kreiran je pomalo zastrašujući kineski program društvenog ocenjivanja, prema kojem se pokušava bodovanje ponašanja 1,4 milijarde Kineza. Ponašanja koja se beleže kako bi se građani ocenjivali su pušenje u prostorima u kojima je to zabranjeno, prelazak ulice na mestima na kojima to nije dopušteno ili, na primer, koliko su vremena proveli igrajući video igre. Takav Big Brother ne znači samo zadiranje u privatnost, nego i mogućnost početka društvene opresije 2.0.

4. Diskriminacija

Nije reč samo o diskriminaciji i društvenim predrasudama koje su primećene kod mašinskog učenja, a gde su na Zapadu u lošijoj poziciji rasne manjine i žene. S obzirom na to da mašine mogu da prikupljaju, prate i analiziraju podatke o pojedincima, isto tako mogu te informacije da upotrebljavaju protiv njih. Kao primer navodi se osiguravajuća kuća koja "zna" da osoba često razgovara telefonom ili poslodavac koji odbija da zaposli osobu zbog "niskog broja društvenih bodova". Jedan od primera je američka policija koja koristi policijske algoritme za predviđanje mesta zločina. Na te algoritme utiču stope hapšenja koje neproporcionalno pogađaju kvartove sa afroamerikancima i proizvode opresivniju atmosferu u tim delovima gradova.

5. Slabljenje etičnosti i dobre volje

Na to je upozorio i papa Franja govoreći o svetu koji se rađa dolaskom veštačke inteligencije. Nova tehnologija promeniće živote ljudi baš kao što je to učinio internet u devedesetima. "Ako tzv. tehnološki progres čovečanstva postane neprijatelj opšteg dobra, to će dovesti do regresije na oblik varvarizma u kojem zakon jačeg ima primat", izjavio je Papa.

Upravo je ChatGPT, veštačka inteligencija čije je otkriće nedavno uzburkalo svetsku javnost, izazvao najveću zabrinutost. Naime, korisnici su upotrebili novu tehnologiju da se izvuku, na primer, od pisanja eseja, što je izazvalo rasprave o uticaju na poštenje u akademskom životu, ali i na kreativnost i izveštačenost.

6. Samoupravljajuće oružje

Mnogi su uvereni da će takmičenje u nuklearnom naoružanju zameniti takmičenje u razvoju autonomnog oružja.

Ruski predsednik Vladimir Putin je pre više godina, govoreći pred studentima na jednom ruskom univerzitetu, izjavio: "AI je budućnost ne samo za Rusiju, nego i za čovečanstvo. Ko postane lider na tom području, postaće vladar sveta". Još 2016. godine je 30.000 naučnika potpisalo peticiju kojom se traži zaustavljanje istraživanja autonomnog oružja. Ali, osim što bi smrtonosno oružje moglo da se otme kontroli i razvije sopstvenu volju, što pripada domenu hipotetičkog predviđanja i SF filmova, objektivna je opasnost da bi takvo oružje moglo da padne u pogrešne ruke, pojedinaca ili grupa koje slabo cene ljudski život. Jednom pokrenuti, teško bi ih bilo zaustaviti ili nadvladati.

7. Produbljenje socio-ekonomskih razlika i potresi na tržištu

Društveni jaz jedna je od opasnosti regrutacije na radnom mestu koju sprovodi AI. Određivanje karakteristika kandidata za radno mesto analizom glasa i lica u sebi nosi opasnost od diskriminacije u procesu zapošljavanja, smatraju stručnjaci. Takođe, već se pokazalo da su fizički radnici zbog uvođenja automatizacije doživeli smanjenje plata dok su "biele kragne" manje-više prošle neokrznute, a neki čak i poboljšali platne liste.

Zbog automatizacije poslovanja u finansijskom sektoru javlja se bojazan da bi sledeću veliku krizu mogao da izazove AI. To se već dogodilo u dva slučaja zbog softvera koji je "poludeo" i bezumnim ponašanjem izazvao haos na tržištu.

Pratite nas na našoj Facebook i Instagram stranici, Twitter nalogu i uključite se u našu Viber zajednicu.

Nastavak na B92...






Napomena: Ova vest je automatizovano (softverski) preuzeta sa sajta B92. Nije preneta ručno, niti proverena od strane uredništva portala "Vesti.rs", već je preneta automatski, računajući na savesnost i dobru nameru sajta B92. Ukoliko vest (članak) sadrži netačne navode, vređa nekog, ili krši nečija autorska prava - molimo Vas da nas o tome ODMAH obavestite obavestite kako bismo uklonili sporni sadržaj.