1. Idi na sadržaj
  2. Idi na glavnu navigaciju
  3. Idi na ostale ponude DW-a
PolitikaGlobal

Provjera činjenica: Kako da prepoznam lažne audio zapise?

Thomas Sparrow
31. august 2024

Lažiranje glasova političara i javnih ličnosti, može biti posebno opasno tokom izborne sezone i često ih je teško razotkriti. Kako ih možete prepoznati?

Barak Obama
Kako prepoznati lažiranje glasova političara?Foto: AP Photo/picture alliance

Da li je bivši američki predsjednik Barak Obama sugerisao da iza neuspjelog atentata na njegovog nasljednika Donalda Trampa stoje demokrate?

SAD-om kruži nekoliko audio snimaka na kojima Obama navodno razgovara sa svojim bivšim savjetnikom Dejvidom Akselrodom o predstojećim američkim predsjedničkim izborima u novembru.

U jednom od odlomaka glas koji zvuči kao Obamin kaže: „To im je bila jedina šansa, a ovi idioti su je propustili. Da su samo mogli da se otarase Trampa, obezbijedili bi pobjedu protiv bilo kog drugog republikanskog kandidata".

Međutim, audio je identifikovan kao lažan. Obama zapravo ništa nije rekao o tome. Umjesto toga, zvuk je generisan sintetički korišćenjem vještačke inteligencije (AI).

NewsGuard, američka služba za dezinformacije i analizu medija, objavila je analizu audio zapisa. Tim NewsGuard-a je koristio više alata za otkrivanje vještačke inteligencije, intervjuisao stručnjaka za digitalnu forenziku i zaključio da su audio snimci lažni. Tim je razgovarao i sa Obaminim portparolom, koji je potvrdio da audio snimci nisu autentični.

Obama nije jedini političar čiji je glas bio lažiran. Ranije ove godine, glas američkog predsjednika Džoa Bajdena generisan vještačkom inteligencijom pozvao je birače na predizborima u Nju Hempširu da ne glasaju.

Ali, lažni audio zapisi se ne pojavljuju samo u Sjedinjenim Državama. Prošle godine, neposredno uoči predsjedničkih izbora u Slovačkoj, objavljen je lažni audio zapis (Audio-Deepfake) glasa lidera Liberalne partije Mihala Simecke. U Velikoj Britaniji, gradonačelnik Londona Sadik Kan postao je žrtva lažnog snimka vještačke inteligencije koji mu je stavio kontroverzne izjave u usta.

I Sadik Kan postao je žrtva lažnog snimka vještačke inteligencije Foto: Peter Nicholls/Getty Images

Lako za napraviti, teško razotkriti

U vremenima političke neizvjesnosti, lažiranje audio zapisa koje generiše vještačka inteligencija može biti posebno štetno tokom izbornih ciklusa jer ih je tako lako kreirati i distribuirati.

„Potrebno im je manje podataka za obuku i procesorske snage – u poređenju sa lažnim video zapisima – da bi postigli skoro realne rezultate“, kaže Ana Šild, stručnjakinja za medije i komunikaciju u timu za inovacije DW-a.

Zajedno sa svojom koleginicom Julijom Bajer ispitala je efekte audio-fejkova i objasnila zašto oni postaju sve popularniji. „Njihova svestranost, od automatizovanih poziva preko glasovnih poruka do video-voice-over, nudi mnogo različitih kanala distribucije“, kaže Šild.

Audio-dipfejk je takođe teže otkriti od drugih oblika dezinformacija. „Jer, jednostavno imamo manje tragova", rekao je za DW Nikolas Miler, mašinski inženjer na njemačkom Fraunhofer institutu za primjenjenu i integrisanu bezbejdnost.

„U videu imamo audio i video zapis, i određeni sinhronicitet između njih“, objašnjava Miler, koji je proučavao koliko dobro ljudi mogu da prepoznaju lažne snimke. On i njegove kolege su otkrili da, kada su audio fajlovi u pitanju, ima manje elemenata koji ukazuju na to da li je snimak autentičan ili ne.

Izoštravanje čula - takođe pomaže protiv dubokog lažiranja

Dakle, šta korisnici mogu da urade ako naiđu na audio datoteku koju je možda kreirala AI? Jedan od načina da provjerite da li su audio snimci stvarni ili ne jeste da pregledate datoteku da li postoje obrasci koji mogu ukazivati na manipulaciju vještačkom inteligencijom.

U gore pomenutom primjeru Baraka Obame, to bi značilo upoređivanje sumnjivog fajla sa poznatim i provjerenim audio snimkom njegovog glasa kako bi se pronašla moguća odstupanja od Obaminog normalnog načina govora.

Ovo može uključivati različite izgovore, neprirodne pauze ili neprirodno disanje. Pored toga, pozadinska buka ili neprirodni zvuci u audio materijalu koji je u pitanju mogu dati dodatne tragove.

Neuvježbanim ušima može biti teško da prepoznaju ove tragove. Međutim, postoji nekoliko alata koje ljudi mogu da koriste da vježbaju identifikaciju ove vrste dezinformacija. Jedan od njih je projekat detekcije lažnih audio zapisa Digger, koji je razvijen u saradnji sa DW-om. Projekat je kreirao praktične vježbe koje pomažu ljudima da vježbaju svoje veštine kritičkog slušanja.

Tim Nikolasa Milera je takođe razvio igru koja omogućava učesnicima da testiraju koliko dobro mogu da prepoznaju lažne audio zapise.

Foto: DW

Korišćenje AI alata za borbu protiv AI dezinformacija

Druga opcija je korišćenje softvera sa vještačkom inteligencijom koji je obučen za otkrivanje audio lažiranja.

U našem primjeru sa Obaminim sintetizovanim glasom, NewsGuard je koristio deepfake checker kao što je TrueMedia, koji ima bot detektora lažnih audio zapisa. Prema sopstvenim informacijama, ovaj bot može da odgovori na zahtjeve za verifikaciju korisnika na platformi Iks.

Institut Fraunhofer je sada razvio Deepfake Total, platformu na koju korisnici mogu da postavljaju sumnjive audio datoteke i da ih analiziraju. Sve otpremljene datoteke se ocjenjuju korišćenjem takozvanog „Fake-O-Meter" brojem poena koji pokazuje koliko je vjerovatno da je neki zapis vještački stvoren ili izmanipulisan.

Alati za otkrivanje lažnih audio zapisa za sada nisu nepogrješivi. Iako često možete procijeniti vjerovatnoću da li je audio zapis generisan pomoću vještačke inteligencije, rezultat nije uvijek tačan. Zbog toga takve alate uvijek treba koristiti sa oprezom u provjeri.

Da bi provjerili audio zapise, korisnici takođe mogu da odu na druge pouzdane veb-sajtove i platforme i pretražuju da vide da li je dotični zapis već opovrgnut u drugim provjerama činjenica.

Nekoliko medijskih kuća je takođe razvilo alate za identifikaciju lažnih audio zapisa, uključujući VerificAudio španske medijske kompanije PRISA Media, koja ima za cilj da otkrije lažne snimke u zemljama španskog govornog područja.

Hoze Gutijerez iz PRISA Media objasnio je u intervjuu za DW da je alatka zasnovana na dva procesa vođena vještačkom inteligencijom: dok prvi upoređuje sumnjive audio zapise sa autentičnim audio snimcima iste osobe, drugi analizira različite akustičke karakteristike kao što su propusni opseg, visina, frekvencija i tekstura zvuka.

Gutijerez je takođe naglasio da ovaj alat ne daje definitivne odgovore, već može da pruži samo vjerovatnoću.

Provjerite kontekst

Takođe može pomoći da se fokusirate na tradicionalnije metode verifikacije koje nisu ograničene na audio snimke kada identifikujete audio lažne.

Tim DW Research and Cooperations, kome pripada Ana Šild, sastavio je neke korisne alate na veb stranici "How to Verify" (Kako da provjerim).

Foto: DW

Korisni savjeti uključuju:

1. Uporedi audio sadržaj sa poznatim činjenicama

2. Provjeri kanale društvenih medija te osobe

3. Provjeri pouzdane izvore vijesti za dodatni kontekst

Na kraju, sve se svodi na mješavinu različitih tehnika. Kako DW Research and Cooperations ističe, „ne postoji rješenje sa jednim dugmetom koje može da otkrije bilo kakvu vrstu manipulacije u audio materijalu".

Ovaj tekst je prethodno objavljen na njemaökom jeziku.

Pratite nas i na Facebooku, preko Twittera, na Youtubeu, kao i na Instagramu