Svakim danom raste popis naučnika koji istupaju u javnost upozoravajući na opasnosti koji donosi neregulirana umjetna inteligencija.
Ona se ubrzano razvija u najvećim svjetskim tehnološkim laboratorijima.
Mnogi se pitaju čega se to tačno stručnjaci boje kada je riječ o tehnologiji budućnosti koja je već dio svakodnevnog života.
U fokusu kritičara nekoliko je rizika koje donosi umjetna inteligencija.
Društvena manipulacija
Ona je već dio svijeta u kojem živimo. Naime, društveni mediji putem svojih autonomnih algoritama vrlo su efikasni u ciljanom marketingu. Znaju ko smo, šta volimo. Izuzetno su vješti u pogađanju toga što mislimo.
Strah od toga što umjetna inteligencija može, i na koji je način sposobna manipulirati našim ponašanjem, izazivaju mnogi primjeri. Posljednji je onaj s Ferdinandom Marcosom mlađim koji je, koristeći vojsku trolova, na društvenoj mreži TikTok pridobio glasove mlađih Filipinaca na izborima prošle godine.
Već je dovoljno teško razlikovati umjetnu inteligenciju od stvarnih osoba. To utjecaj AI u virtuelnom svijetu čini strahovitim, prenosi Jutarnji list.
Gubitak radnih mjesta
Zbog umjetne inteligencije mnogi bi mogli ostati bez posla. Ta stvarnost mogla bi biti bliža nego što mnogi misle. To se ne odnosi samo na najteže poslove, nego i na one koji, prema riječima Maxa Erika Tegmarka, fizičara i velikog kritičara nekontroliranog razvoja AI, ispunjavaju smislom ljudske živote.
AI se već obilno upotrebljava u marketingu, proizvodnji i zdravstvu.
No, prema procjenama Goldman Sachsa, kompjuteri bi u potpunosti na globalnoj razini mogli preuzeti 18 posto radnih mjesta.
Gubitak privatnosti
Razvoj tehnologije omogućio je praćenje i analizu svega što pojedinci rade dok su online, ali i na fizičkom planu. Kamere su gotovo svugdje. Algoritmi za facijalno prepoznavanje znaju dobro ko je ko.
Na temelju tih sistema sazidan je pomalo zastrašujući kineski program društvenog ocjenjivanja, prema kojem se pokušava bodovati ponašanje 1,4 milijarde Kineza?
Ponašanja koja se bilježe kako bi se ocjenjivalo građane su pušenje u prostorima u kojima je to zabranjeno, prelazak ceste na mjestima na kojima to nije dopušteno ili, na primjer, koliko su vremena proveli igrajući videoigrice.
Diskriminacija
Nije riječ samo o diskriminaciji i društvenim predrasudama koje su primijećene kod strojnog učenja, a gdje su na Zapadu u lošijoj poziciji rasne manjine i žene.
Budući da strojevi mogu prikupljati, pratiti i analizirati podatke o pojedincima, isto tako mogu te informacije upotrebljavati protiv njih.
Kao primjer navode se osiguravajuća kuća koja "zna" da osoba često razgovara na mobitel ili poslodavac koji odbija zaposliti osobu zbog "niskog broja društvenih bodova"
Jedan od primjera je američka policija koja koristi policijske algoritme za predviđanje mjesta zločina. Na te algoritme utječu stope hapšenja koje neproporcionalno pogađaju crnačke kvartove i proizvode opresivniju atmosferu u tim dijelovima gradova.
Slabljenje etičnosti i dobre volje
Na to je upozorio i papa Franjo govoreći o svijetu koji se rađa dolaskom umjetne inteligencije.
Nova tehnologija promijenit će živote ljudi baš kao što je to učinio internet u devedesetim.
"Ako tzv. tehnološki progres čovječanstva postane neprijatelj općeg dobra, to će dovesti do regresije na oblik barbarizma u kojem zakon jačeg ima diktat", izjavio je Papa.
Upravo je ChatGPT, umjetna inteligencija čije je otkriće nedavno uzburkalo svjetsku javnost, izazvao najveću zabrinutost.
Naime, korisnici su upotrijebili novu tehnologiju da se izvuku, na primjer, od pisanja eseja. To je izazvalo rasprave o utjecaju na čestitost u akademskom životu, ali i na kreativnost i umjetnost.
Autonomno oružje
Mnogi su uvjereni da će utrka u nuklearnom naoružanju zamijeniti utrku u razvoju autonomnog oružja.
Ruski predsjednik Vladimir Putin prije više je godina, govoreći pred studentima na jednom ruskom univerzitetu, izjavio:
"AI je budućnost ne samo za Rusiju, nego i za čovječanstvo. Ko postane lider na tom području, postat će vladar svijeta".
Još 2016. godine je 30.000 naučnika potpisalo peticiju kojom se traži zaustavljanje istraživanja autonomnog oružja.
No, osim što bi se ubojito oružje moglo oteti kontroli i razviti vlastitu volju, što pripada u domenu hipotetskog predviđanja i naučno-fantastičnih filmova, objektivna je opasnost da bi takvo oružje moglo pasti u pogrešne ruke, pojedinaca ili skupina koje slabo cijene ljudski život.
Jednom pokrenuti, teško bi ih bilo zaustaviti ili nadvladati.
Produbljenje razlika i potresi na tržištu
Društveni jaz jedna je od opasnosti koju provodi AI. Određivanje karakteristika kandidata za radno mjesto analizom glasa i lica u sebi nosi opasnost od diskriminacije u procesu zapošljavanja, smatraju stručnjaci.
Također, već se pokazalo da su fizički radnici zbog uvođenja automatizacije doživjeli smanjenje plaća dok su "bijeli ovratnici" manje-više prošli neokrznuti. Neki su čak i poboljšali platne liste.
Zbog automatiziranja poslovanja u finansijskom sektoru javlja se bojazan da bi iduću veliku krizu mogao izazvati AI.
To se već dogodilo u dva navrata zbog softvera koji su "poludjeli" i bezumnim ponašanjem izazvali haos na tržištu.