1. Idi na sadržaj
  2. Idi na glavnu navigaciju
  3. Idi na ostale ponude DW-a
PolitikaSjedinjene Američke Države

Kako umjetna inteligencija utječe na izborne kampanje?

28. listopada 2024

Političke stranke koriste umjetnu inteligenciju kako bi kreirale alternativne stvarnosti. Time žele utjecati na naše emocije ili nas uplašiti zastrašujućim scenarijima. Kako to utječe na nas?

Slika stvorena umjetnom inteligencijom, označena je kao lažna
Umjetna inteligencija se sve češće i zloupotrebljavaFoto: X/@BrandenburgAfD

Video prikazuje kako plavooki, plavokosi muškarac u bijeloj košulji provjerava svoj glasački listić. U drugom kadru istog videa vidi se skupina „pokrivenih“ žena kako šetaju ulicom. Ovaj video je objavljen na nalogu krajnje desničarske stranke AfD, uoči pokrajinskih izbora u istočnoj njemačkoj pokrajini Brandenburgu. Sličan video pregledan je skoro 900.000 puta.

Ove video-snimke pokušavaju utjecati na naše emocije, prikazujući zastrašujuću budućnost i nudeći jednostavna rješenja. Nijedan sadržaj nije stvaran — video-snimke su napravljene uz pomoć umjetne inteligencije (UI).

Ovaj sadržaj se može brzo proizvesti, jeftin je i jednostavan. U usporedbi s drugim, složenijim UI-videima, relativno je lako uočiti da su ovi videi lažni.

Ali, ako je to slučaj, zašto se uopće prave? DW je provjerio činjenice i istražio fenomen tzv. „softfakea".

„Softfake“ u političkim kampanjama

U usporedbi s „deepfakeom", koji toliko vjerno imitira glasove, geste i pokrete da ih je lako pomiješati sa stvarnošću, „softfake" ne pokušava sakriti da su kompjutorski generirani.

„Softfake“ se sve više koristi u političkim izbornim kampanjama. Tadašnji vodeći kandidat AfD-a za europske izbore Maximilian Krah objavio je veliki broj UI-slika na svom TikTok-nalogu.

AfD je vrlo aktivan na društvenim mrežamaFoto: Tiktok

Neprirodna lica očigledan su znak da nijedna od prikazanih osoba nije stvarna. I u Francuskoj su političke stranke kreirale UI slike uoči predsjedničkih i izbora za Europsku uniju, s ciljem da izazovu emocije.

Studija, koja je proučavala naloge na društvenim mrežama svih francuskih stranaka tijekom izbornih kampanja, pokazala je da su stranke krajnje desnice bile posebno sklone korištenju „softfakea“. Nijedna slika nije bila označena kao UI-generirana, iako su se sve stranke obvezale na to u Kodeksu ponašanja pred europske izbore.

Bilo im je naloženo da se „suzdrže od proizvodnje, korištenja ili širenja obmanjujućeg sadržaja“. Kodeks ponašanja izričito spominje sadržaj generiran umjetnom inteligencijom. Ipak, stranke kao što su Patrioti, Nacionalno okupljanje i Ponovno osvajanje puno su koristile takav sadržaj.

Ove vrste slika pojavile su se i uoči predsjedničkih izbora u SAD-u 2024. godine. Bivši predsjednik Donald Trump objavio je fotografiju žene koja je trebala prikazivati potpredsjednicu Kamalu Harris, kako se obraća skupini ljudi u komunističkim uniformama — potez koji je trebalo Harris predstaviti kao komunisticu.

Ova slika bi trebala prikazivati Kamalu HarrisFoto: @realDonaldTrump/X.com

Problem ovog sadržaja nadilazi dezinformacije i širenje lažnih vijesti. Stvaraju se alternativne stvarnosti, dok se umjetne verzije prikazuju kao realnije od same stvarnosti.

Što utječe na našu percepciju? Prihvaćamo li očigledno UI-generirane video-snimke i slike alternativne stvarnosti i percipiramo ih kao stvarne samo zbog njihove masovnosti?

Fenomen „jezive doline"

Još sedamdesetih godina prošlog stoljeća znanstvenici su počeli istraživati reakcije ljudi na robote koji su izgledali i ponašali se skoro kao ljudi. Japanski inženjer robotike Masahiro Mori skovao je termin „jeziva dolina". Što roboti više sliče na ljude, izazivaju jezivije osjećaje.

„Postaje nam nelagodno jer primjećujemo nesklad između onoga što mislimo da jest i onoga što je ispred nas", rekao je za DW Nicholas David Bowman, glavni urednik časopisa Journal of Media Psychology i izvanredni profesor na Newhouse School of Public Communications na Sveučilištu Syracuse u SAD-u.

„To nam stvara nelagodu jer ne možemo pomiriti osjećaje. Osjećamo se jezivo jer znamo da nešto nije u redu."

Ali što se događa kada UI-generirane slike nadiđu efekt jezive doline i prestanemo ih doživljavati kao čudne?

„Jednom kada nadiđemo efekt jezive doline, toga nećemo biti ni svjesni. Vjerojatno nećemo moći uočiti razliku", rekao je on.

Ali još uvijek nismo stigli do te razine. „Ljudi imaju instinktivne reakcije kada vide video-snimku. To je naš najbolji detektor je li nešto UI-generirano ili stvarno", rekao je Bowman.

Postaje problematično ako ljudi pokušaju ignorirati taj osjećaj, jer žele vjerovati da je laž stvarna.

„Ljudi to mogu isključiti — ne pokušavam uočiti, jer sam već suglasan sa sadržajem i to se poklapa s onim što želim vidjeti", dodao je Bowman. „Ako ste pristrani, krajnje lijevo ili krajnje desno, i vidite sadržaj koji nije stvaran, jednostavno vas nije briga, zato što ste suglasni sa sadržajem."

Utjecaj UI-ja predstavlja rizik za naš informativni prostor

Upotreba „deepfakea" i „softfakea" u izbornim kampanjama je u porastu. To je primijetio i Philip Howard, suosnivač i predsjednik Međunarodnog panela za informativno okruženje (IPIE), neovisne globalne organizacije posvećene pružanju znanstvenih spoznaja o prijetnjama našem „informativnom krajoliku".

U nedavnoj studiji kontaktirali su preko 400 istraživača iz više od 60 zemalja. Više od dvije trećine vjeruje da su UI-generirane video-snimke, glasovi, slike i tekst negativno utjecali na globalno informativno okruženje. Više od polovice smatra da će ove tehnologije imati negativan utjecaj u idućih pet godina.

„Mislim da smo već nadišli točku samoregulacije industrije", rekao je Howard za DW. „Sada kompanije koje se bave UI-jem same sebe provjeravaju. Sami ocjenjuju svoj rad", dodao je.

Ali to, kako kaže, zbog nedostatka neovisnog nadzora nije dovoljno.

„Ako uspijemo natjerati regulatore da zahtijevaju neovisne provjere – tako da neovisni istraživači, novinari i akademici mogu zaviriti ispod površine – mislim da možemo preokrenuti stvari", smatra Howard.

Ovaj tekst je izvorno objavljen na njemačkom jeziku.