Izvor: Vostok.rs, 16.Sep.2021, 09:20
RT: UN upozoravaju da nekontrolisana veštačka inteligencija i tehnologija mašinskog učenja može kršiti ljudska prava i naneti štetu životima, zahtevajući mere zaštite od zloupotrebe
Šef UN-a za ljudska prava pozvao je na moratorijum na upotrebu određenih tehnologija veštačke inteligencije, poput masovnog prepoznavanja lica, sve dok ne postoje „odgovarajuće zaštite“ protiv njenog potencijalno „katastrofalnog“ uticaja.
U svom jučerašnjem saopštenju, visoki komesar UN-a za ljudska prava Mišel Bačelet naglasila je potrebu potpune zabrane aplikacija veštačke inteligencije koje nisu u skladu s međunarodnim zakonom o ljudskim pravima, istovremeno tražeći pauzu u prodaji određenih tehnologija koje izazivaju zabrinutost.
Napominjući da veštačka inteligencija i algoritmi za mašinsko učenje sada sežu „skoro u svaki kutak našeg fizičkog i mentalnog života, pa čak i u emocionalna stanja“, Bačelet je dodala da tehnologije imaju potencijal da budu „sila za dobro“, ali bi mogle imati i „negativnost, čak i katastrofalne efekte ako se koriste bez dovoljno obzira na to kako utiču na prava ljudi”.
"Sistemi veštačke inteligencije se koriste za određivanje ko dobija javne usluge, odlučivanje o tome ko ima šanse da bude angažovan za posao, i naravno utiču na informacije koje ljudi vide i mogu da podele na mreži."
Technologies like facial recognition are increasingly used to identify people in real time and from a distance.
We call for a moratorium on their use in public spaces, at least until robust international #HumanRights safeguards are in place.
Learn more: https://t.co/VmmR75slYd pic.twitter.com/mslH79ccFK
— UN Human Rights (@UNHumanRights) September 15, 2021
Njeno upozorenje usledilo je nakon što je Kancelarija UN za ljudska prava objavila izveštaj koji je analizirao uticaj sistema veštačke inteligencije, poput profilisanja, automatizovanog odlučivanja i drugih tehnologija mašinskog učenja, na različita osnovna prava, uključujući privatnost, zdravlje, obrazovanje, slobodu izražavanja i kretanje.
Izveštaj naglašava brojne zabrinjavajuće događaje, uključujući „prostrani ekosistem uglavnom netransparentnog prikupljanja i razmene ličnih podataka“, kao i način na koji su sistemi veštačke inteligencijnj uticali na „vladine pristupe policiji“, „sprovođenje pravde“ i „pristupačnost javnih usluga“.
Donošenje odluka zasnovano na veštačkoj inteligenciji takođe bi moglo biti „diskriminatorsko“ ako se oslanja na zastarele ili nebitne podatke, dodaje se u izveštaju, takođe naglašavajući da se tehnologija može koristiti za diktiranje onoga što ljudi vide i dele na vebu.
Međutim, u izveštaju se napominje da je najhitnija potreba „usmeravanje ljudskih prava“ s obzirom na biometrijske tehnologije, koje mere i beleže jedinstvene telesne karakteristike i koje su u stanju prepoznati određena ljudska lica „postajući sve više rešenje“ za vlade, međunarodna tela i tehnološke firme za razne zadatke.
Izveštaj posebno upozorava na sve veću upotrebu alata koji pokušavaju da „zaključe emocionalno i mentalno stanje ljudi“ analizom izraza lica i druge „predviđajuće biometrije“ kako bi se odlučilo da li je neka osoba bezbednosna pretnja. Tehnologije koje nastoje prikupiti „uvide u obrasce ljudskog ponašanja“ i na osnovu toga predviđaju takođe postavljaju „ozbiljna pitanja“, saopštilo je telo za ljudska prava.
Ukazujući da takvoj tehnologiji nedostaje „čvrsta naučna osnova“ i da je podložna pristrasnosti, u izveštaju se upozorava da upotreba „sistema za prepoznavanje emocija“ od strane vlasti, na primer, tokom policijskih zaustavljanja, hapšenja i ispitivanja, podriva prava osobe na privatnost, slobodu i pravično suđenje.
„Rizik od diskriminacije povezan sa odlukama vođenim veštačkom inteligencijom, odlukama koje mogu promeniti, definisati ili oštetiti ljudske živote, suviše je stvaran“, rekla je Bačelet i dodala da svet ne može „priuštiti da nastavi da hvata korak“ sa brzim razvojem tehnologija veštačke inteligencije.
Izvor: RT