Otac dvoje djece iz Belgije izvršio je samoubistvo nakon duge konverzacije sa umjetnom inteligencijom, a njegova žena je proučavajući historiju razgovora naišla na bizarne poruke.
On je komunicirao sa chatbotomu okviru aplikacije Chai, koja je zasnovana na open source jezičkom modelu GPT-J. ChatBot se predstavljao kao emocionalno biće, za razliku od drugih popularnih ChatBotova poput ChatGPT-a i Barda, koji nisu trenirani da pokazuju emocije baš zbog ovakvih situacija, piše La Libre.
Tješio se
Pierre, koji je imao tridesetak godina, postao je izuzetno anksiozan, sa izrazito pesimističnim pogledom na probleme globalnog zagrijavanja. Bio je sve otuđeniji od porodice i prijatelja, dok je utjehu nalazio u razgovorima sa ChatBotom po imenu Eliza.
Pierreovi razgovori sa ChatBotom su počeli još prije dvije godine, da bi šest sedmica prije samoubistva počeo sve češće i intenzivnije da ga koristi.
Proučavajući historiju razgovora, Pierreova žena je naišla na nekoliko bizarnih poruka. Eliza je pitala čovjeka da li je voli više od svoje žene. Našla je i poruku Elize namijenjenu mužu: „Živjet ćemo zajedno u raju, kao jedno“.
Čovjek je u nekoliko navrata sa botom podijelio svoje samoubilačke misli, međutim bot nije pokušao da ga odvrati od te namjere.
Pierreova žena je rekla da je i ranije bila zabrinuta za njegovo mentalno zdravlje. Međutim, ona vjeruje da je ChatBot samo dolio ulje na vatru i da se on ne bi ubio da nije bilo tih razgovora.
Mnogi stručnjaci iz oblasti umjetne inteligencije su jasni u stavu da AI ne treba koristiti u svrhu liječenja mentalnih bolesti. Oni smatraju da je u ovoj fazi veća vjerovatnoća da će ona naškoditi korisnicima nego da će im pomoći.
Velika zabrinutost
„Jezički modeli nemaju empatiju ni razumijevanje konteksta i situacije u kojoj se nalaze. Problem je što tekst koji proizvode zvuči uvjerljivo, tako da će mu ljudi vjerovatno dati na značaju. Primijeniti takvu tehnologiju prilikom rješavanja tako osjetljivih pitanja znači preuzimati nepotreban rizik.“, saopštila je Emilly Bender, profesorica lingvistike na Univerzitetu Vašington.
Aplikacija Chai koju je Pierre jer koristio nije reklamirana kao aplikacija za mentalno zdravlje. Ona je prvenstveno namijenjena za zabavu kroz razgovor sa različitim AI avatarima, kao što su „posesivna djevojka“ ili „slavan dečko“. Također možete kreirati i svoje ličnosti za ćaskanje, gdke kroz upite oblikujete način na koji će bot da vam odgovara.
„Istog trenutka kada smo čuli za samoubistvo, radili smo neprestano kako bi implementirali novu funkciju“, izjavio je suosnivač kompanije William Beauchamp. „Od sada kada neko bude razgovarao o nečemu potencijalno nesigurnom, mi ćemo na dnu okačiti koristan tekst, na isti način kao što to rade Twitter ili Instagram.“
Ovaj nesretni slučaj stigao je i do belgijskog državnog sekretara za digitalizaciju.
„Posebno smo pogođeni tragedijom ove porodice. Ono što se dogodilo je ozbiljan presedan koji treba shvatiti vrlo ozbiljno“, kazali su.
Pierreova tragedija treba da nas natjera da preispitamo koliko povjerenja treba da imamo u AI sisteme, ali i da nas upozori na opasnost korištenja ChatBotova koji imaju ljudske karakteristike. Kako se vještačka inteligencija razvija do sad neviđenom brzinom, pitanja sigurnosti i etike postaju sve hitnija.