1. Przejdź do treści
  2. Przejdź do głównego menu
  3. Przejdź do dalszych stron DW

Studium: Niewystarczające zabezpieczenia przeciw deepfejkom

26 lutego 2024

Eksperci ostrzegają, że brakuje metod oznaczania zdjęć, filmów i nagrań dźwiękowych stworzonych przy pomocy sztucznej inteligencji (SI). Najtrudniej ich zdaniem rozpoznać te ostatnie.

Tak powstaje wideo deepfejk. Tu z udziałem byłego prezydenta USA Baracka Obamy
Tak powstaje wideo deepfejk. Tu z udziałem byłego prezydenta USA Baracka Obamy Zdjęcie: AP Photo/picture alliance

Widoczne dla użytkowników oznaczenia treści wytworzonych przez sztuczną inteligencję mogą być mylące i trudne do wykrycia, a jednocześnie są one stosunkowo łatwe do usunięcia, podkreśla w opublikowanym w poniedziałek raporcie amerykańska Fundacja Mozilli (z Mountain View w Kalifornii, powołana w 2003 roku w celu wsparcia projektu Mozilla, w ramach którego rozwijane są bezpłatnie dostępne programy, takie jak internetowa przeglądarka Firefox, czy program do obsługi poczty elektronicznej Thunderbird – przyp.).

Bardziej niezawodnym rozwiązaniem są techniczne „znaki wodne”, które są automatycznie osadzane w treściach generowanych przez sztuczną inteligencję. Również i w tym wypadku istnieje jednak zastrzeżenie, że informacje te muszą najpierw zostać odczytane przez stosowne oprogramowanie na urządzeniach użytkownika i wyświetlone.

Deepfejki także na wideo

Regulacje dotyczące oznaczania treści generowanych przez SI często nie spełniają oczekiwań, ostrzega Ramak Molavi Vasse'i, badaczka z Fundacji Mozilli. W końcu tak zwane deepfejki (zmanipulowane przy pomocy SI fotografie, wideofilmy i nagrania audio w sposób tak doskonały, że ich odbiorca nie jest w stanie wykryć oszustwa – przyp.) są zwykle tworzone specjalnie w celu wprowadzenia w błąd. Jeśli branża sama nie poczyni postępów w zakresie samoregulacji, należy zwiększyć na nią presję, uważa ekspertka.

Fejk z prezydentem Ukrainy Wołodymyrem Zełenskim

Ogólny problem polega na tym, że do obiegu wprowadzana jest technologia, która od samego początku nie ma przemyślanych i wbudowanych bezpieczników zapobiegających jej podstępnemu wykorzystaniu. Ponadto nadal mnożą się dzikie projekty wykorzystujące wiele rozmaitych procedur zamiast jednego jednolitego standardu.

Oprogramowanie SI może być wykorzystywane do generowania coraz bardziej realistycznych zdjęć na podstawie danych tekstowych. Jednak coraz częściej w ten sposób generowane są również wideofilmy. Amerykańskie laboratorium OpenAI, które stworzyło program ChatGPT, zaprezentowało niedawno swoje nowe oprogramowanie Sora służące do tworzenia treści wideo przy pomocy SI. Sygnalizujący to znacznik jest jednak mały i często trudny do zauważenia, krytykuje ekspertka Mozilli.

Audiofejk: Biden calls

Istnieją poważne obawy, że sztuczna inteligencja może zostać wykorzystana do wpłynięcia na wynik wyborów. Szczególne znaczenie może to mieć akurat w tym roku, kiedy będą i wybory prezydenckie w USA, i wybory europejskie. W Stanach Zjednoczonych, na krótko przed prawyborami Partii Demokratycznej w stanie New Hampshire, ktoś wykonał automatyczne połączenia telefoniczne, w których łudząco realistycznie przypominający sposób mówienia prezydenta Joe Bidena głos dzwoniącego wzywał wyborców, by trzymali się z dala od lokali wyborczych.

Takie audiofejki są uważane za poważny problem już choćby dlatego, że istnieje dużo mniej sposobów ich rozpoznawania na podstawie błędów czy znaczników. Zdarzały się już przypadki, w których takie nagrania były wykorzystywane do oszustw na wnuczka, kiedy to przestępcy próbują wyłudzić pieniądze rzekomo w imieniu krewnych.

(DPA/pedz)

Deepfejki: realne zagrożenie

02:20

This browser does not support the video element.

Pomiń następną sekcję Dowiedz się więcej