Ulazimo u svijet dubokih laži u kojem će malo tko moći znati što je istina

Pred nama je društvo u kojem ljudi istinu od laži više ne mogu razlikovati niti to pokušavaju. Upravo je u razvoju tehnologija digitalnog kloniranja koja se temelji na algoritmima dubokog učenja, a omogućuje da se pomoću postojeće zvučne snimke te fotografija i videomaterijala proizvedu ‘hiperrealistični’ radovi.

Neke tvrtke već su razvile platforme na kojima pojedinci mogu proizvesti ‘vlastiti digitalni klon’ tako što će u bazu podataka koju pokreće umjetna inteligencija (UI) učitati niz svojih slika i snimaka glasa, piše Nexus.

Tako možete „podići” svoj digitalni klon koji izgleda poput vas, govori poput vas, zvuči poput vas, a preuzima i vašu osobnost kako bi buduće generacije sve o vama mogle doznati i poslije vaše smrti.

Ljudi se tom tehnologijom danas služe i kako bi se pojavili na vlastitom sprovodu.

Iako je neka „ostavština” za pokojnikom u kiberprostoru ostajala i ranije poput profila na društvenim mrežama, stvaranje „inteligentnog avatara” prenosi teoretsku raspravu o digitalnoj besmrtnosti (ili virtualnom životu nakon smrti) na potpuno drugu razinu.

Ilustracija: Canva

Tehnologija o kojoj je riječ razvija se već više od desetljeća.

– Nazovimo to digitalnim klonom – rekao je novinarima Don Davidson, osnivač i izvršni direktor tvrtke Intellitar, još 2010. kad je taj koncept tek krenuo u razvoj.

‘Želimo korisnicima podariti besmrtnost, a budućim generacijama osjećaj povezanosti s vlastitim korijenima. Pomoću našeg Intellitara moći ćete sačuvati i dijeliti svoju osobnost, životna iskustva, znanje, mudrost i sjećanja na dosad nezabilježen način.’

Otada se na osnovama koncepta koje su postavile tvrtke poput Intellitara izgradila čitava nova industrija.

Godine 2022. HereAfter AI iz Kalifornije podigli su letvicu svojom besplatnom aplikacijom.

Kažu: „Razgovarate li s avatarom svojeg djeda pa spomenete da vam je najdraži film Terminator, njegov će avatar to zapamtiti i možda ponovo spomenuti u nekom od sljedećih razgovora.”

Stvaranjem „digitalnog klona” ne samo da možete sačuvati svoju vizualnu pojavu nego i način ophođenja, uključujući vlastitu osobnost i razmišljanja.

Ove tvrtke pojašnjavaju da će se zahvaljujući tome omogućiti „obiteljsko povezivanje kroz više generacija”, prenošenje obiteljskog naslijeđa budućim generacijama, kao i način „vječnog prikaza” povijesti.

Ovakav razvoj situacije posebno se sviđa glumcu iz serije Zvjezdane staze Williamu Shatneru koji je svoja sjećanja pohranio prošle godine.

Ilustracija

Digitalno kloniranje može se iskoristiti i za stvaranje avatara povijesnih ličnosti u cilju obrazovanja.

U ovom se području nastavljaju kombinirati tehnologije simulacije, umjetne inteligencije, govorne sinteze i izgrađenih baza podataka u namjeri da „stvorite i oblikujete” svoju „umjetno inteligentnu prezentaciju”.

Moderna umjetna inteligencija na sličan je način omogućila i proizvodnju dubokih laži, tzv. deepfakes uradaka.

Metoda je to koja na sličan način uključuje toliko napredno rukovanje i obradu videomaterijala da osoba prikazana u videoisječku govori ili čini stvari na koje sama nikad ne bi pristala.

Autori deepfakes uradaka iskorištavaju jedan oblik umjetne inteligencije, nazivamo ga duboko učenje, za izradu lažnih slika, lažnih događaja i lažnih ljudi, kao u nekoj nadogradnji fotošopiranja, ali svojstvenoj 21. stoljeću.

Želite nekom političaru staviti u usta nešto što nije rekao? Ili glumiti u svojem omiljenom filmu? Plesati kao profesionalac?

Sve to za vas mogu učiniti duboke laži.

Kako bi javnost upozorili na moguće opasnosti dubokih laži BuzzFeed je u travnju 2018. objavio duboku laž koja prikazuje bivšeg predsjednika Baracka Obamu kako govori stvari koje nije nikada javno izrekao.

Duboko se lažirati mogu i zvučni zapisi. Tako nastaju „glasovni klonovi” javnih osoba.

Pitate se tko takve duboke laži proizvodi?

Baš svi, od znanstvenih i industrijskih istraživača preko entuzijasta amatera do studija za vizualne efekte i producenata pornografskih sadržaja.

Ovu tehnologiju koriste i vlade u okviru svojih internetskih strategija za diskreditiranje i suzbijanje ekstremističkih skupina ili, primjerice, u cilju ostvarivanja kontakta s „ciljanim osobama”.

Videoradovi dobiveni tehnikom duboke laži danas se čak izlažu u galerijama i muzejima. Tako npr. floridski Muzej Dalí ima u svojem postavu duboku laž slikara nadrealista koji predstavlja svoj rad i fotografira se s posjetiteljima.

Voditelj prikupljanja obavještajnih podataka o prijetnjama u Deeptraceu Henry Ajder o tome kaže: „Svijet je sve više sintetički. Ta tehnologija neće nestati.”

Ako je to točno pred nama je čitav niz pravnih i etičkih problema, piše Nexus u prvoj polovici članka, a po drugi skoknite klikom na izvorni link.