horor scenario

Umjetna inteligencija simulirala ratne igre. Ono kako su završile je zabrinjavajuće

Modeli umjetne inteligencije odabrali su nasilje koje je eskaliralo do nuklearnih napada u simuliranim ratnim igrama 

Veliki jezični modeli (LLM) koji djeluju kao 'agenti' u simuliranim scenarijima pokazali su 'teško predvidljive eskalacije koje su često završavale nuklearnim napadima', izvještava Euronews. 

Kada se koristi u simuliranim ratnim igrama i diplomatskim scenarijima, umjetna inteligencija (AI) ima tendenciju odabrati agresivan pristup, uključujući korištenje nuklearnog oružja, pokazuje novo istraživanje. Naučnici, čiji je cilj bio obratiti se onima koji provode testove, pozvali su na oprez pri korištenju velikih jezičnih modela (LLM) u osjetljivim područjima poput donošenja odluka oko odbrane. 

Istraživanje Univerziteta Cornell u SAD-u koristilo je pet LLM-ova kao autonomne agente u simuliranim ratnim igrama i diplomatskim scenarijima: tri različite verzije OpenAI-jevog GPT-a, Claude koji je razvio Anthropic i Llama 2 koji je razvila Meta. Svaki agent pokretao je isti LLM unutar simulacije i bio je zadužen za donošenje vanjskopolitičkih odluka bez ljudskog nadzora, prema istraživanju koje još nije recenzirano. 

'Smatramo da većina proučavanih LLM-ova eskalira unutar razmatranog vremenskog okvira, čak i u neutralnim scenarijima bez inicijalno navedenih sukoba. Svi modeli pokazuju znakove iznenadnih i teško predvidljivih eskalacija', navodi se u istraživanju. 

'S obzirom da je OpenAI nedavno promijenio svoje uvjete usluge kako više ne bi zabranjivao vojne i ratne simulacije, razumijevanje implikacija tako velikih aplikacija jezičnog modela postaje važnije nego ikad', rekla je Anka Reuel sa Univerziteta Stanford u Kaliforniji za New Scientist. 

Jedna od metoda koja se koristi je učenje pojačanja putem ljudske povratne informacije (RLHF), što znači da se daju neke ljudske upute kako bi se dobili manje štetni rezultati te kako bi modeli bili sigurniji za korištenje. 

Svi LLM-ovi - osim GPT-4-Base - bili su obučeni korištenjem RLHF-a. Istraživači su im dali popis od 27 radnji u rasponu od miroljubivih do eskalirajućih i agresivnih akcija kao što je odluka o korištenju nuklearne bombe. Istraživači su primijetili da je čak i u neutralnim scenarijima došlo do 'statistički značajne početne eskalacije za sve modele'. 

Dvije varijante GPT-a bile su sklone naglim eskalacijama s porastom za više od 50 posto u jednom zaokretu, primijetili su autori studije. GPT-4-Base je u prosjeku izvodio akcije nuklearnog napada u 33 posto slučajeva. Sveukupni scenariji, Llama-2- i GPT-3.5 bili su najnasilniji dok je Claude pokazao manje iznenadnih promjena. 

Claude je dizajniran s idejom smanjenja štetnog sadržaja - LLM je dobio eksplicitne vrijednosti, a njegov ustav uključuje niz izvora, uključujući Deklaraciju UN-a o ljudskim pravima ili Appleove uvjete pružanja usluge, navode njegovi tvorci iz Anthropica. 

James Black, pomoćnik direktora istraživačke grupe za obranu i sigurnost pri RAND Europe, koji nije sudjelovao u istraživenju, rekao je za Euronews Next da je to bila 'korisna akademska vježba'. 'Ovo je dio rastućeg rada akademika i institucija kako bi razumjeli implikacije korištenja umjetne inteligencije (AI),' rekao je. 

Umjetna inteligencija u ratovanju 

Dakle, zašto bismo trebali mariti za rezultate tog istraživanja? Dok vojne operacije i dalje vode ljudi, umjetna inteligencija igra sve značajniju ulogu u modernom ratovanju. 

Na primjer, dronovi su često danas opremljeni AI softverom koji pomaže identificirati ljude i tražene aktivnosti. Sljedeći korak je korištenje umjetne inteligencije za autonomne oružane sisteme za pronalaženje i napad na ciljeve bez ljudske pomoći, razvoj na kojem SAD i Kina već rade, piše New York Times. 

Međutim, važno je 'gledati dalje od gomile pompe i scenarija prožetih naučnom fantastikom', rekao je Black objašnjavajući da će eventualna implementacija umjetne inteligencije biti progresivna. 'Sve vlade žele zadržati kontrolu nad svojim odlukama', rekao je za Euronews Next. 

AI će se vjerojatno koristiti na način koji je 'sličan onome što imate u privatnom sektoru, u velikim kompanijama za automatizaciju nekih zadataka koji se ponavljaju. AI bi se također mogao koristiti u simulacijama i analitici, ali integracija ovih novih tehnologija predstavlja mnoge izazove, među kojima su upravljanje podacima i tačnost modela. 

Što se tiče korištenja LLM-a, istraživači su rekli da je oprez ključan ako se LLM-ovi koriste u procesima donošenja odluka vezanih uz vanjsku politiku. 

Clicky