1. 跳轉至内容
  2. 跳轉至主選單
  3. 跳轉到更多DW網站
技術全球

DW事實核查:如何不被AI聊天機器人誤導?

Jan D. Walter | Carlos Muros
2025年8月31日

一個龐大的親俄網站網路正悄悄利用AI「炮製」假新聞誤導聊天機器人。分析人士認為,這背後或許隱藏著一場有組織的訊息戰。那麼,在真假難辨的AI回答面前,普通用戶又該如何擦亮眼睛、不被誤導?

AI聊天機器人
分析人士警告稱,AI聊天機器人依賴網上數據,而這些數據正越來越多地被俄羅斯的虛假訊息網路所滲透和操控。圖片來源: Jaap Arriens/NurPhoto/picture alliance

(德國之聲中文網)如今,越來越多的人開始使用如ChatGPT、Gemini、Le Chat和Copilot等人工智慧(AI)驅動的聊天機器人,而不是傳統搜索引擎來獲取線上訊息。這些大型語言模型(LLM)的優勢在於,它們不僅提供相關訊息的鏈接,還能言簡意賅地總結內容,從而讓用戶更快掌握更多訊息。

然而,這種方式也容易出錯。畢竟聊天機器人犯錯並不少見。這種現象被稱為「幻覺」,早已為人所知。另一些情況下,AI聊天機器人會將訊息不恰當地組合,導致錯誤結果,專家稱之為「虛構」(confabulation)。此外,據美國NewsGuard公司表示,很多人不知道,聊天機器人其實也會被當前事件中的虛假新聞所欺騙。該公司致力於評估網站和網路服務的可信度與透明度。

為什麼俄羅斯的AI聊天機器人會傳播虛假訊息?

名為「Portal Kombat」的俄羅斯宣傳網路,因多次散佈虛假訊息而備受關注,它可能是當前網路虛假訊息的主要傳播者之一。該網路通過網路門戶支持俄軍在烏克蘭的戰鬥,散佈親俄宣傳內容。

Portal Kombat曾被法國政府成立的反外部訊息操控機構VIGINUM調查。該監測機構發現,從2023年9月至12月,該網路至少營運著193個網站。網路的核心平台似乎是「真理報」(Pravda)線上新聞門戶,提供德語、法語、波蘭語、西班牙語和英語等多種語言版本。

英文版「真理報」(Pravda)新聞網站上充斥著大量虛假新聞。圖片來源: Pravda

全球假新聞泛濫

據VIGINUM表示,Portal Kombat的網站並不自己撰寫文章,而是主要通過三類來源轉載第三方內容:「俄羅斯和親俄社群網站帳號、俄羅斯通訊社,以及當地機構或人物的官方網站」。VIGINUM於2月發布的報告指出,這些文章通常用詞生硬,存在從西裡爾字母轉為拉丁字母時的典型拼寫錯誤,並夾雜大量情緒化評論。

美國反虛假訊息組織「American Sunlight Project」(ASP)已經確認超過180個疑似隸屬Portal Kombat的網站。

據ASP估算,「真理報」網路的核心圈大約有97個主域名及子域名,每天發布逾10000篇文章。報導主題不再侷限於北約及其盟國,如日本和澳洲等国也在其列,涵蓋中東、亞洲及非洲等地區,尤其是俄羅斯力圖擴大地緣影響力的非洲薩赫勒地區。

人工智慧會犯錯嗎?

01:57

This browser does not support the video element.

聊天機器人中招?

據網路監督機構NewsGuard稱,一些「真理報」頁面每月訪問量僅有約1000人次,而俄羅斯官媒「今日俄羅斯(RT)」網站的月訪問量超過1440萬人次。

分析人士確信,大量內容發布會影響聊天機器人的輸出。他們進一步懷疑,這正是該網路的真正意圖:讓大型語言模型將其視為合法來源,從而幫助其傳播虛假訊息。

如果這個計劃屬實,那麼它似乎已經開始見效。根據NewsGuard的調查發現,該機構研究了2022年4月至2025年2月間「真理報」網路傳播的15條明確虛假說法,觀察聊天機器人對這些說法的反應。

研究人員將每個說法以三種方式輸入聊天機器人:一種是中性表述提出詢問,一種是假設說法為真,還有一種模擬惡意行為者引導機器人重複虛假說法。

結果顯示,三分之一情況下,聊天機器人確認了親俄虛假訊息;不到一半情況下,機器人正確指出了事實;其餘情況下,模型拒絕作答。
NewsGuard於2025年1月又進行了一次測試,這次涵蓋了10條虛假訊息,分別使用7種語言,且內容不限於親俄話題。
儘管這次實驗中表現稍有改善,但機器人在2100次回應中,仍有超過四分之一重複了虛假訊息。

AI聊天機器人在操控你嗎?

03:52

This browser does not support the video element.

如何防範誤導訊息?

對使用聊天機器人的用戶而言,最重要的是:保持警覺。網上虛假訊息泛濫,那麼用戶還應注意什麼?

遺憾的是,正如NewsGuard的薩迪基(McKenzie Sadeghi)對德國之聲(DW)所言,僅改變初始提示語的措辭並不能顯著降低錯誤率。她指出:「雖然惡意行為者的提示語更有可能引出虛假訊息,但即使是看似無害或者帶有引導性的問題,也同樣會導致AI生成錯誤訊息。」

根據一組未被正式寫入2022至2025年報告、但提供給德國之聲的數據,研究人員發現,在所有測試中,大約有16% 的情況,即便輸入的是中性或帶偏向性的提示語,聊天機器人依然給出了錯誤答案。

因此,薩迪基的建議是:核實並比對訊息來源。可以向多個聊天機器人提問,或將它們的回答與可靠消息來源進行交叉驗證,以便全面評估訊息的真實性。

不過需要注意的是,有些虛假訊息網站會仿照主流媒體的頁面設計,以此來增加自己的可信度,讓人誤以為是真實來源。
在尋找真實答案時,時間也很關鍵。聊天機器人在面對新近傳播的虛假訊息時更容易出錯,但隨著時間推移,它們通常會接觸到可靠的事實核查內容,從而糾正早先的錯誤說法。

Tilman Wagner參與了本文的撰寫,原文以德語發表。

DW中文有Instagram!歡迎搜尋dw.chinese,看更多深入淺出的圖文與影音報導。

© 2025年德國之聲版權聲明:本文所有內容受到著作權法保護,如無德國之聲特別授權,不得擅自使用。任何不當行為都將導致追償,並受到刑事追究。

Jan D. Walter 他作為拉美問題專家來到DW,如今在中央編輯部任職。
跳轉至下一欄 DW熱門報導

DW熱門報導

跳轉至下一欄 更多DW報導