1. 跳轉至内容
  2. 跳轉至主選單
  3. 跳轉到更多DW網站
技術全球

DW事實核查:如何識破AI生成的新聞播報影片

Monir Ghaedi | Adnan Sidibe
2025年8月24日

人工智慧(AI)生成的新聞播報影片越來越難辨真假,而它們充斥著所有社交平台。怎樣才能避免上當?

一段在TikTok上的AI生成的採訪
這段在TikTok上的AI生成的採訪,看起來就像一場真實的街頭民意調查——有紅色郵筒和英國國旗作背景。但這個畫面完全是假的。圖片來源: TikTok

(德國之聲中文網)在一條TikTok影片中,一名記者站在英國傳統紅色皇家郵筒前,背景中飄著英國國旗,手持麥克風。他向一位女性路人提問:「你打算在即將到來的選舉中投票給誰?「」改革黨,」她回答,「我只是想再次找回作為英國人的感覺,明白吧。」 
一位用戶在評論中寫道:「真想知道他們花了多少錢讓她這麼說。」但這場景從未發生。這段採訪完全是虛構的。記者也不是真人——他是由人工智慧生成的。如果你細看,就會發現一個不起眼的水印:角落裡寫著「Veo」字樣,這是谷歌DeepMind推出的強大影片生成工具的標誌。

這段8秒的影片並非個例。從TikTok到Telegram,合成新聞影片——即模擬真實新聞片段風格的AI影片——在社交平台上無處不在。它們借用了新聞報導的視覺語言:現場報導、屏幕圖表、權威口吻。然而,這些內容往往完全是虛構的,目的是引發憤怒、操控輿論,或單純為了博眼球。

加州大學伯克利分校數字取證專家法裡德(Hany Farid)告訴德國之聲(DW):「當你在刷手機時,這類影片看起來像新聞,聽起來也像新聞。而這正是危險所在。」

一段由人工智慧生成的假新聞影片,顯示一名虛擬記者站在倫敦市中心的坦克前。

現實風險

許多合成影片模糊了諷刺與現實之間的界限,或具有誤導性。在另一個8秒的影片中,一位記者似乎正在報導一支「史無前例的軍事車隊」駛過倫敦市中心。她站在坦克前方,後方有群眾圍觀。但這段影片並未提及任何具體事件、時間或背景。

DW事實核查團隊多次觀察到,這類影片會在危機時期(如騷亂或重大新聞事件)反復出現,被重新包裝以製造混亂或錯誤地暗示局勢升級。

在上一次以色列與伊朗衝突升級期間,TikTok和其他平台充斥著與戰爭相關的AI生成內容,包括假新聞影片,例如俄羅斯加入戰爭、伊朗攻擊美國、或伊朗擊落參與轟炸其核設施的美國B-2轟炸機等。

2024年6月洛杉磯爆發抗議美國移民執法局(ICE)行動期間,DW也發現合成新聞影片數量激增。

這些影片不僅廣泛傳播於社交平台,而且對現實世界產生影響

2024年,台灣研究人員指出,本地社交平台上出現了AI生成的新聞播報影片,虛假指控支持台獨的政治人物貪污。這些影片不僅傳播了錯誤訊息,還在選舉前破壞了公眾對新聞媒體的信任。

當然,有些用戶是將AI新聞當作惡搞工具。在一則TikTok熱門影片中,合成主播站在一個深不見底的坑洞前報導,有摩托車直接掉進洞裡。另一個影片中,一個虛擬主播說:「我現在就在邊境,但這裡沒有戰爭。爸媽,這看起來很真實,但其實是AI生成的。」

假新聞?!AI造!

05:12

This browser does not support the video element.

如何識別假新聞播報影片

那我們該如何辨別真假呢?首先看水印。像Veo、Synthesia等AI工具往往會給影片打上品牌標記,但這些標籤有時會被淡化、裁剪或直接忽略。即使影片有明顯水印,也經常會有人在評論中問:「這是真的新聞嗎?」

假新聞播報是目前AI內容中最精緻的一類。由於通常是在靜態的新聞演播室場景中錄製,許多典型的AI特徵(比如手勢僵硬、背景不連貫)不容易被察覺。但仍有一些微妙線索。

觀察眼睛和嘴部。合成主播常常眨眼不自然,嘴唇對不上語音。牙齒可能過於光滑或亮度異常,有時在說話中形狀會發生變化。面部表情與動作通常太過一致,缺乏真人的自然變化。

屏幕上的文字也是識別線索之一。例如某段號稱「突發新聞」的底欄顯示的竟是亂碼:「Iriay, Tord for the coteat aiphaiteie the tha moerily kit to molivaty instutuive in Isey。」記者的麥克風上甚至胡亂寫著「The INFO Misisery」。

法裡德指出,識別AI內容的技巧是「與時俱進的」。「我今天告訴你的識別方法,可能六個月後就不適用了。」

那麼我們該怎麼辦?依賴可信來源。「如果你不想被騙,」法裡德說,「那就從可靠的新聞媒體那裡獲取訊息。」

這段AI生成的「新聞播報」乍一看可能很真實——但注意字幕,像「Iriay Tord」和「aiphaiteie」這樣胡亂拼湊的詞就是明顯的警示訊號。圖片來源: tiktok

廉價AI影片如何變現?

AI主播並不是新概念。2018年,中國官媒新華社就推出了一位呆板、生硬的AI主播。那時候它還只是個新奇玩意。

但如今技術已經發生了翻天覆地的變化。像Veo這樣的工具現在可以讓任何人——即便沒有新聞從業經驗——只花幾百歐元就能製作出高品質的新聞播報影片。這些虛擬人說話流暢、動作逼真,只需簡單輸入幾行文字就能完成製作。

法裡德說:「製作門檻幾乎為零。你不需要演播室,甚至連事實都不需要。」

這些影片的設計目的幾乎都是最大程度地吸引用戶關注。它們抓住最具爭議的話題:移民問題、加薩戰爭、烏克蘭局勢、川普……以激發強烈情緒,引導轉發分享。

社交平台本身也在推波助瀾。Meta不久前調整了算法,更多地展示用戶未關注賬戶的內容,這使得合成影片更容易觸達更廣泛的受眾。平台的變現機制也進一步激勵了內容創作者:影片播放量越高,收益越多。

這種環境催生出一批新的「AI垃圾製造者」:他們生產與熱搜話題相關、品質低下的合成影片,只為了博取流量。

例如某個擁有4.4萬粉絲的帳號,在記者尚未確認訊息時就搶先發布熱點內容。在最近一起空難事件中,數十條TikTok影片用AI虛擬主播冒充CNN或BBC記者,發布虛假傷亡數字和杜撰的目擊證詞。許多影片在被刪前已在網上傳播了數小時。

在突發新聞發生時——人們急於獲取訊息的時刻——這些看似真實的AI新聞影片成為吸引點擊、賺取收益的有效手段。
法裡德總結說:「社交平台正在放鬆對內容的審核管理。這是一個最糟糕的組合:我能製作內容,我能傳播它,而且還有大量觀眾願意相信它。」

DW中文有Instagram!歡迎搜尋dw.chinese,看更多深入淺出的圖文與影音報導。

© 2025年德國之聲版權聲明:本文所有內容受到著作權法保護,如無德國之聲特別授權,不得擅自使用。任何不當行為都將導致追償,並受到刑事追究。

Monir Ghaedi 經常撰寫有關中東政治、社會的文章,同時覆蓋更廣泛題材的時事。
跳轉至下一欄 DW熱門報導

DW熱門報導

跳轉至下一欄 更多DW報導