Pentagon, Claude i ChatGPT: Tko kontrolira umjetnu inteligenciju na ratnim žarištima?

Sukob je izbio nakon što je Pentagon odlučio prekinuti suradnju s tvrtkom Anthropic, čiji model umjetne inteligencije Claude više neće biti korišten u vojnim projektima američke vlade.

Pentagon, Claude i ChatGPT: Tko kontrolira umjetnu inteligenciju na ratnim žarištima?
Ilustracija

U SAD-u je ovih dana pokrenuta jedna od najvažnijih političkih i tehnoloških rasprava novog doba, a to je pitanje tko upravlja umjetnom inteligencijom u sustavu oružanih snaga. Riječ je o pitanju koje će u idućim desetljećima imati dalekosežne posljedice za globalnu sigurnost.

Sukob je izbio nakon što je Pentagon odlučio prekinuti suradnju s tvrtkom Anthropic, čiji model umjetne inteligencije Claude više neće biti korišten u vojnim projektima američke vlade. Razlog prekida bio je spor oko uvjeta korištenja tehnologije. Anthropic je odbio dopustiti neograničenu vojnu primjenu svojih modela, posebno u kontekstu autonomnog oružja i masovnog nadzora. Američko Ministarstvo obrane tražilo je širu mogućnost korištenja umjetne inteligencije u svim zakonitim vojnim operacijama.

Rasprava o ulozi umjetne inteligencije u vojnim operacijama dodatno se zaoštrila nakon izvještaja da su analitički alati temeljeni na umjetnoj inteligenciji korišteni u jednoj američkoj operaciji u Venezueli. Prema informacijama iz obrambenih izvora koje su prenijeli pojedini američki mediji, sustavi umjetne inteligencije sudjelovali su u obradi obavještajnih podataka i planiranju operacije usmjerene protiv režima predsjednika Nicolása Madura. U operaciji je, prema dostupnim procjenama, poginulo između 83 i 100 ljudi. Nije potvrđeno na koji je način umjetna inteligencija konkretno korištena niti je li imala izravnu ulogu u odabiru ciljeva, ali upravo je ta epizoda dodatno otvorila pitanje granica vojne primjene naprednih algoritama.

Nakon prekida suradnje s Anthropicom, Pentagon je sklopio novi sporazum s OpenAI-jem, tvrtkom koja razvija modele GPT. Ugovor predviđa korištenje umjetne inteligencije u analizi obavještajnih podataka, obradi velikih količina informacija i razvoju obrambenih tehnologija. Iako američke vlasti tvrde da sustavi umjetne inteligencije neće samostalno donositi odluke o uporabi sile, sporazum je izazvao raspravu unutar tehnološkog sektora, ali i među stručnjacima za međunarodnu sigurnost.

Dio zaposlenika u tehnološkoj industriji upozorio je da bi integracija naprednih jezičnih modela i algoritama za analizu podataka u vojni sustav mogla ubrzati transformaciju ratovanja. Jedna od voditeljica robotike u OpenAI-ju podnijela je ostavku nakon objave sporazuma s Pentagonom, navodeći etičke razloge.

U središtu rasprave nalazi se pitanje koje se dosad uglavnom raspravljalo u akademskim krugovima: treba li umjetna inteligencija imati jasno definirane granice u vojnoj primjeni. Američka vojska već desetljećima koristi algoritme za obradu podataka, satelitskih snimaka i radarskih informacija, ali razvoj generativne umjetne inteligencije otvara novu razinu mogućnosti.

Za razliku od ranijih sustava koji su analizirali specifične vrste podataka, suvremeni modeli umjetne inteligencije mogu obrađivati ogromne količine tekstualnih, vizualnih i signalnih informacija te ih pretvarati u strukturirane analize koje pomažu zapovjednicima u donošenju odluka. Upravo ta sposobnost, prema mišljenju mnogih stručnjaka, može promijeniti način na koji države planiraju i vode vojne operacije.

Pentagon već nekoliko godina razvija strategiju integracije umjetne inteligencije u obrambeni sustav kroz programe poput Joint Artificial Intelligence Center i Project Maven, koji koriste algoritme za analizu snimaka iz bespilotnih letjelica. Međutim, spor s Anthropicom prvi je javni sukob između velike tehnološke tvrtke i američke vlade oko toga kako se takva tehnologija smije koristiti.

Pentagon, Claude i ChatGPT: Tko kontrolira umjetnu inteligenciju na ratnim žarištima?
AI, dozvola za ubojstvo

U pozadini sukoba nalazi se šira geopolitička utrka u razvoju umjetne inteligencije. Sjedinjene Države i Kina već godinama ulažu ogromna sredstva u razvoj tehnologija koje bi mogle imati vojnu primjenu. Stručnjaci za sigurnost upozoravaju da će umjetna inteligencija u idućim desetljećima imati ulogu sličnu onoj koju su u prošlom stoljeću imali nuklearno oružje i raketne tehnologije.

Zbog toga američka vlada nastoji osigurati pristup najnaprednijim sustavima umjetne inteligencije razvijenima u privatnom sektoru. Istodobno, dio tehnoloških kompanija pokušava uspostaviti etičke granice koje bi spriječile razvoj potpuno autonomnog oružja.

Ovaj sukob pokazuje da pitanje umjetne inteligencije više nije samo tehnološko. Ono je postalo političko, sigurnosno i društveno pitanje koje će u velikoj mjeri odrediti odnose između država, industrije i društva.

U svijetu u kojem algoritmi sve više sudjeluju u donošenju odluka, ključno pitanje više nije samo koliko je tehnologija napredna nego tko odlučuje kako će se ta tehnologija koristiti.

Idi na stranicu