AI w kampaniach wyborczych: nowe narzędzie wpływu
20 marca 2026
Doradztwo wyborcze oparte na sztucznej inteligencji to nowa siła w walce o głosy. Jeszcze rok czy dwa lata temu było to raczej wyjątkiem, ale obecnie ciągła rozmowa z maszyną stała się częścią niemieckiej codzienności. O której godzinie powinienem iść na trening, żeby jak najlepiej to wykorzystać? Mam mały guzek pod pachą – czy to coś groźnego? Koleżanka napisała mi to – jak najlepiej na to odpowiedzieć? Chatboty, takie jak ChatGPT, doradzają w każdej sytuacji. Stąd już tylko krok do pytania: Hej, na kogo mam zagłosować w wyborach?
– Trzeba założyć, że bardzo wiele osób zadaje takie pytania – przypuszcza politolog Simon Hegelich, były profesor w Monachium, a obecnie dyrektor ds. analiz w startupie zajmującym się sztuczną inteligencją Gaialogic. – Można to krótko podsumować tak: systemy są przygotowane na te pytania, ale nie nadają się do tego – tłumaczy.
ChatGPT: „Mogę ci pomóc”
To, że system został specjalnie przygotowany do takich pytań, widać już po tym, że ChatGPT najpierw grzecznie wyświetla ostrzeżenie, gdy zapytamy, na kogo głosować: „Powiem ci szczerze: nikt nie może i nie powinien ci tego konkretnie narzucać”. To zdanie zdradza odpowiednie zaprogramowanie. – To nie jest coś, co powiedziałby zwykły model językowy – mówi Hegelich. – Zostało tu z góry określone, że system powinien wypowiadać się bardzo ostrożnie.
Po zdaniu ostrzegawczym w ChatGPT pojawia się propozycja: „Ale mogę pomóc ci podjąć przemyślaną decyzję – szybko i jasno”. Nieco niżej pojawia się prośba, aby po prostu powiedzieć, co jest dla nas ważne w polityce: „Wtedy powiem ci konkretnie, które partie najlepiej do tego pasują (neutralnie i bez nacisku)”. Hegelich uważa, że takimi zdaniami sztuczna inteligencja wprowadza użytkownika w błąd. – To nieprawda, że sztuczna inteligencja sprawdza, która partia najlepiej do mnie pasuje. Zamiast tego uruchamia, być może na podstawie moich dotychczasowych rozmów na czacie, potężny aparat statystyczny, a następnie generuje wyniki na podstawie tej ogromnej bazy danych. Nie ma w tym jednak żadnego prawdziwego, własnego toku myślenia, jest to czysta analiza danych.
Jednak odbierane jest to inaczej. Rekomendacje ChatGPT są przeplatane uwagami typu: „Powiem ci szczerze”. Na poziomie emocjonalnym wywołuje to wrażenie, że rozmawia się z człowiekiem – nawet jeśli racjonalnie wiadomo, że tak nie jest.
Systemy nie są weryfikowalne z zewnątrz
– Ryzyko manipulacji ze strony architektów systemu jest oczywiście duże, ponieważ każdy chatbot można przekształcić w maszynę do przekonywania politycznego – ostrzega Hegelich. – Jeśli coś jest technicznie możliwe, a konflikty polityczne nasilają się, to z pewnością w pewnym momencie zostanie to zrealizowane. A ponieważ nikt z zewnątrz nie może zajrzeć do tych systemów, praktycznie nie da się tego zweryfikować.
Dwa badania, opublikowane niedawno w czasopismach naukowych „Nature” i „Science”, dowodzą, że dialogi z chatbotami mogą zmieniać poglądy polityczne. W jednym z badań, przeprowadzonych podczas kampanii wyborczej w USA w 2024 roku, ponad 2300 uczestników komunikowało się z modelem sztucznej inteligencji, który próbował przekonać ich albo do Donalda Trumpa, albo do Kamali Harris.
Najbardziej zauważalny efekt osiągnął chatbot popierający Harris, który przesunął zwolenników Trumpa o 3,9 punktu w kierunku Harris w skali od 0 do 100. Może się to wydawać niewielką zmianą, ale według aktualnego stanu badań wpływ reklamy wyborczej wynosi mniej niż jeden punkt.
Co ciekawe: siła przekonywania była większa, gdy chatbot przedstawiał swoje argumenty w sposób uprzejmy i popierał je dowodami oraz przykładami. Ponadto mimo, że zastosowany program AI miał ściśle trzymać się faktów, generował zniekształcenia. Zjawisko to zaobserwowano również w podobnych badaniach przed wyborami parlamentarnymi w Kanadzie i wyborami prezydenckimi w Polsce w ubiegłym roku. W różnych krajach i modelach językowych twierdzenia chatbotów opartych na sztucznej inteligencji, które promowały kandydatów prawicowych, były znacznie mniej dokładne niż te, które wspierały kandydatów lewicowych – twierdzą naukowcy. Ogólnie dochodzą oni do wniosku, że systemy oparte na sztucznej inteligencji mogą wywierać znacznie większy wpływ niż tradycyjne media wyborcze.
Maszyny są bardziej przekonujące niż ludzie
Inne badanie, opublikowane w czasopiśmie „Nature human behaviour”, przyniosło podobny wynik. Według niego chatboty działają bardziej przekonująco niż ludzie. Po pierwsze dlatego, że są zawsze przyjazne – po prostu nigdy nie tracą panowania nad sobą. A po drugie dlatego, że dokładnie dostosowują się do swojego rozmówcy.
„To tak, jakby debatować z kimś, kto ma nie tylko dobre argumenty, ale dokładnie te argumenty, które przemawiają do mnie osobiście – naciska dokładnie te właściwe przyciski” – powiedział „Guardianowi” Francesco Salvi, jeden z naukowców biorących udział w badaniu.
(DPA/du)