1. Przejdź do treści
  2. Przejdź do głównego menu
  3. Przejdź do dalszych stron DW

AI w kampaniach wyborczych: nowe narzędzie wpływu

Bartosz Dudek opracowanie
20 marca 2026

Sztuczna inteligencja coraz częściej podpowiada wyborcom, na kogo głosować. Eksperci ostrzegają przed ryzykiem manipulacji.

Smartfon z aplikacjami sztucznej inteligencji
Coraz więcej Niemców korzysta z porad sztucznej inteligencjiZdjęcie: Philip Dulian/dpa/picture alliance

Doradztwo wyborcze oparte na sztucznej inteligencji to nowa siła w walce o głosy. Jeszcze rok czy dwa lata temu było to raczej wyjątkiem, ale obecnie ciągła rozmowa z maszyną stała się częścią niemieckiej codzienności. O której godzinie powinienem iść na trening, żeby jak najlepiej to wykorzystać? Mam mały guzek pod pachą – czy to coś groźnego? Koleżanka napisała mi to – jak najlepiej na to odpowiedzieć? Chatboty, takie jak ChatGPT, doradzają w każdej sytuacji. Stąd już tylko krok do pytania: Hej, na kogo mam zagłosować w wyborach?

– Trzeba założyć, że bardzo wiele osób zadaje takie pytania – przypuszcza politolog Simon Hegelich, były profesor w Monachium, a obecnie dyrektor ds. analiz w startupie zajmującym się sztuczną inteligencją Gaialogic. – Można to krótko podsumować tak: systemy są przygotowane na te pytania, ale nie nadają się do tego – tłumaczy.

ChatGPT: „Mogę ci pomóc”

To, że system został specjalnie przygotowany do takich pytań, widać już po tym, że ChatGPT najpierw grzecznie wyświetla ostrzeżenie, gdy zapytamy, na kogo głosować: „Powiem ci szczerze: nikt nie może i nie powinien ci tego konkretnie narzucać”. To zdanie zdradza odpowiednie zaprogramowanie. – To nie jest coś, co powiedziałby zwykły model językowy – mówi Hegelich. – Zostało tu z góry określone, że system powinien wypowiadać się bardzo ostrożnie.

Po zdaniu ostrzegawczym w ChatGPT pojawia się propozycja: „Ale mogę pomóc ci podjąć przemyślaną decyzję – szybko i jasno”. Nieco niżej pojawia się prośba, aby po prostu powiedzieć, co jest dla nas ważne w polityce: „Wtedy powiem ci konkretnie, które partie najlepiej do tego pasują (neutralnie i bez nacisku)”. Hegelich uważa, że takimi zdaniami sztuczna inteligencja wprowadza użytkownika w błąd. – To nieprawda, że sztuczna inteligencja sprawdza, która partia najlepiej do mnie pasuje. Zamiast tego uruchamia, być może na podstawie moich dotychczasowych rozmów na czacie, potężny aparat statystyczny, a następnie generuje wyniki na podstawie tej ogromnej bazy danych. Nie ma w tym jednak żadnego prawdziwego, własnego toku myślenia, jest to czysta analiza danych.

Jednak odbierane jest to inaczej. Rekomendacje ChatGPT są przeplatane uwagami typu: „Powiem ci szczerze”. Na poziomie emocjonalnym wywołuje to wrażenie, że rozmawia się z człowiekiem – nawet jeśli racjonalnie wiadomo, że tak nie jest.

Maszyna nigdy nie traci panowania nad sobą, dlatego może lepiej przekonywać niż człowiekZdjęcie: Matthias Balk/dpa/picture alliance

Systemy nie są weryfikowalne z zewnątrz

– Ryzyko manipulacji ze strony architektów systemu jest oczywiście duże, ponieważ każdy chatbot można przekształcić w maszynę do przekonywania politycznego – ostrzega Hegelich. – Jeśli coś jest technicznie możliwe, a konflikty polityczne nasilają się, to z pewnością w pewnym momencie zostanie to zrealizowane. A ponieważ nikt z zewnątrz nie może zajrzeć do tych systemów, praktycznie nie da się tego zweryfikować.

Dwa badania, opublikowane niedawno w czasopismach naukowych „Nature” i „Science”, dowodzą, że dialogi z chatbotami mogą zmieniać poglądy polityczne. W jednym z badań, przeprowadzonych podczas kampanii wyborczej w USA w 2024 roku, ponad 2300 uczestników komunikowało się z modelem sztucznej inteligencji, który próbował przekonać ich albo do Donalda Trumpa, albo do Kamali Harris.

Najbardziej zauważalny efekt osiągnął chatbot popierający Harris, który przesunął zwolenników Trumpa o 3,9 punktu w kierunku Harris w skali od 0 do 100. Może się to wydawać niewielką zmianą, ale według aktualnego stanu badań wpływ reklamy wyborczej wynosi mniej niż jeden punkt.

Co ciekawe: siła przekonywania była większa, gdy chatbot przedstawiał swoje argumenty w sposób uprzejmy i popierał je dowodami oraz przykładami. Ponadto mimo, że zastosowany program AI miał ściśle trzymać się faktów, generował zniekształcenia. Zjawisko to zaobserwowano również w podobnych badaniach przed wyborami parlamentarnymi w Kanadzie i wyborami prezydenckimi w Polsce w ubiegłym roku. W różnych krajach i modelach językowych twierdzenia chatbotów opartych na sztucznej inteligencji, które promowały kandydatów prawicowych, były znacznie mniej dokładne niż te, które wspierały kandydatów lewicowych – twierdzą naukowcy. Ogólnie dochodzą oni do wniosku, że systemy oparte na sztucznej inteligencji mogą wywierać znacznie większy wpływ niż tradycyjne media wyborcze.

Ben Gaya. Piosenkarz stworzony przez sztuczną inteligencję

04:03

This browser does not support the video element.

Maszyny są bardziej przekonujące niż ludzie

Inne badanie, opublikowane w czasopiśmie „Nature human behaviour”, przyniosło podobny wynik. Według niego chatboty działają bardziej przekonująco niż ludzie. Po pierwsze dlatego, że są zawsze przyjazne – po prostu nigdy nie tracą panowania nad sobą. A po drugie dlatego, że dokładnie dostosowują się do swojego rozmówcy.

„To tak, jakby debatować z kimś, kto ma nie tylko dobre argumenty, ale dokładnie te argumenty, które przemawiają do mnie osobiście – naciska dokładnie te właściwe przyciski” – powiedział „Guardianowi” Francesco Salvi, jeden z naukowców biorących udział w badaniu.

(DPA/du)

Pomiń następną sekcję Dowiedz się więcej