1. 跳轉至内容
  2. 跳轉至主選單
  3. 跳轉到更多DW網站

DW事實核查:如何識破深度偽造影片?

Julia Bayer | Rachel Baig | Ruben Bouwmeester
2025年9月14日

在深度偽造技術盛行的時代,眼見未必為實!但別慌,只要掌握正確方法,你依然可以提高識別能力,避免被虛假內容誤導。

深度偽造技術
深度偽造技術越來越高明,但並非完全無法識別。圖片來源: DW

(德國之聲中文網)想像一下,只用一天時間,你就能像布魯諾‧馬爾斯(Bruno Mars)一樣舞動,像惠特尼‧休斯頓(Whitney Houston)一樣高歌! 聽起來不可思議?但這種讓人「做出或說出」他們從未真正做過或說過的事的技術,其實一點也不複雜,甚至唾手可得。你只需要一些影片畫面或一段語音,就能創造出一個虛擬的平行世界!

這種借助人工智慧技術生成的「造假內容」,被稱為合成內容,更廣為人知的名字是深度偽造(deepfake)。 

布魯諾‧馬爾斯的那個例子出自2018年,至今看起來仍然令人驚嘆——而如今的深度偽造已經發展到以假亂真的地步。

媒體仿冒中的深度偽造

近年來,一個反復出現的現象就是「媒體仿冒」,即有人冒充媒體機構創建虛假帳號,用真實媒體的名義來欺騙人們,甚至傳播虛假訊息。他們通常會複製頭像,並使用和真實帳號極其相似的用戶名,讓假帳號看起來真假難辨。

有時,造假者甚至會直接盜用媒體的標誌和字體,製作出看似官方發布的內容。我們在以往的事實核查中也分析過不少類似案例。

如今,這類仿冒行為也會借助深度偽造技術。例如,在這段影片中,看起來好像是一名德國之聲(DW)員工在推銷一個「穩賺不賠的投資機會」。實際上,影片製作者只是從DW新聞節目中截取了一個片段,然後通過深度偽造技術生成內容,讓它看起來像是本傑明‧格魯伯(Benjamin Alvarez Gruber)在為這個投資機會作推薦。但真相是——這一切都是假的!影片背後隱藏的,是一場精心設計的投資騙局。

以下幾點可以幫助我們識別這是一個深度偽造影片:

隨著深度偽造技術不斷升級,像「注意嘴巴動作是否奇怪」或「影片畫質差」等老辦法,已經不一定管用了。

不過,在這段影片中,我們確實可以看到一些破綻:格魯伯在深度偽造影片中說的話,與唇部動作不完全匹配。如果放大影片仔細觀看,就能發現口型和聲音對不上。另外,有時候影片中這位記者的牙齒會莫名消失——明明嘴巴還是張開的,牙齒卻看不見了!這些細微的小錯誤,往往能幫助我們識別出造假的痕跡。

我們還建議將這類內容與多個訊息源進行比對。在這個案例中,重要的一步是去核查格魯伯的真實社群網站帳號,看看是否有相同的影片出現。

你還可以再進一步,借助深度偽造檢測工具來進行核查。例如,德國之聲與其他機構共同開發的InVID驗證插件中就包含這種檢測功能。

在這個投資騙局案例中,檢測軟體給出的結果是:該影片有94%的概率是深度偽造。

InVID驗證插件顯示,這段影片有94%的可能是深度偽造。圖片來源: InVID

什麼是深度偽造?

「深度偽造」是指那些利用人工智慧技術——更確切地說是機器學習——生成的音頻和影片文件。

各種各樣的深度偽造都是可能的,例如,換臉(Face swaps):將一個人的臉替換成另一個人的臉;口型同步(Lip synchronization):調整說話者的嘴型,讓畫面和一段完全不同的音頻完美對上;聲音克隆(Voice cloning):複製某個人的聲音,讓其說出從未說過的話。

不僅如此,深度偽造還能從零生成完全虛擬的人臉和身體,比如打造數字虛擬形象(digital avatars)。甚至連已故的人也可以通過這項技術「復活」。例如,美國佛羅里達州的達利博物館(Dali Museum)就曾利用深度偽造技術,讓藝術家薩爾瓦多‧達利(Salvador Dali)以數字形象「重現」。

這些合成影片的背後,是一種叫作生成式對抗網路(Generative Adversarial Networks,簡稱 GAN)的技術。GAN 是一種機器學習模型,由兩個神經網路相互競爭,從而不斷提升生成結果的準確度。

簡單來說:就好比兩台電腦在玩「找茬」游戲——一台電腦負責生成你的數字克隆,另一台電腦則扮演「挑剔裁判」,不斷拿它和原始素材進行對比,追問:你的動作夠像嗎?聲音是否匹配?表情有沒有到位?生成方為了「騙過」裁判,會一次又一次改進,直到讓對方完全信服為止。

雖然這項技術越來越先進、越來越聰明,但只要知道觀察的重點,你依然可以識破深度偽造。

找出可見和隱形的破綻

想分辨真假,不需要成為深度偽造專家。只要掌握一些小技巧,你也能練就「火眼金睛」:

1. 三思而後行。分享之前先想一想:這件事真的可能發生嗎?如果你不確定,就不要輕易轉發。

2. 快速核實消息來源。看看能否在多個可靠的訊息源中找到相同的消息或說法。只需簡單搜索一下新聞標題,通常就能找到真相的端倪。

3. 找到不同版本進行對比。如果你懷疑一段文字、圖片或影片的真實性,可以將其描述輸入搜索引擎(如Google或DuckDuckGo),找到另一個版本,然後進行對比。普通搜索或反向圖片搜索都能幫助你完成這一步。

想找出合成或篡改媒體中那些幾乎看不見的破綻,難度更大。你可以通過以下細節來判斷內容是否被動過手腳:影片中是否出現奇怪的「跳幀」;聲音的重音是否突然變化;音質是否異常低劣,畫面裡是否有模糊區域,手腳或身體的形狀是否不自然……以及是否還有其他讓人感覺「不對勁」的地方。

相信你的直覺,時刻問自己:這合理嗎?這真的可能發生嗎?仔細觀察、再三確認,必要時請朋友或同事一起幫忙判斷。

4. 檢查深度偽造的典型特徵:完全對稱的臉;不匹配的耳環或眼鏡框;耳朵、鼻子、牙齒形狀怪異;畫面對比度不正常;頸部、頭髮或手指連接處不自然。有時,這些問題需要逐幀觀看影片才能發現。 你可以用本地播放器(如VLC)或線上工具來完成這一操作。

5. 放大觀察嘴部和口型變化。放大嘴部區域,把它和真實人類的自然嘴型進行對比。想一想:發出某個聲音時,嘴巴正常應該是什麼形狀?如果看起來不自然,可能就是深度偽造的痕跡。

提升你的感官敏銳度

你可能已經注意到,核實訊息的一個關鍵環節,就是善用自己的感官。好消息是,這些能力是可以通過訓練來提升的!在德國之聲的創新部落格上,你可以進行一系列練習,強化自己的視覺和聽覺敏銳度。通過不斷練習,你會變得更加自信,更有能力識別合成內容和冒牌媒體。

深度偽造技術的危害

深度偽造技術在色情領域帶來的影響尤其嚴重,包括所謂的報復性色情(revenge porn)。大量虛假的色情影片和圖片被廣泛傳播,受害者從名人到在校學生都有,給他們造成了巨大的傷害。

對於整個社會而言,深度偽造的另一大威脅在於當下人們獲取訊息的方式。普通人在網路上每天接觸到海量訊息,但經常無法確定自己看到或轉發的內容是否真實。

在社會高度分裂的環境中,這種傳播方式給了造假者可乘之機,人們很容易被操縱去相信某些事情,無論真假。在這種情況下,影片本身的畫質好壞並不重要,關鍵是親眼所見的震撼效果,哪怕它是假的:例如,時任希臘財政部長瓦魯法基斯(Yanis Varoufakis)對德國比出中指;貝克漢(David Beckham)會說九種語言;祖克柏(Mark Zuckerberg)聲稱他控制了你,因為他掌握了你被盜的數據。

荷蘭曾有一個政治動機驅動的深度偽造影片在網路上瘋傳。該影片由新聞網站 「De Correspondent」 製作,表面上看起來是荷蘭首相呂特(Mark Rutte)宣佈了一項重大政策轉變:從此以後,他將全力支持大規模的氣候保護措施。

解密深度換臉

01:56

This browser does not support the video element.

還有一種現象被稱為「說謊者紅利」(liar's dividend),意思是某些政客能從充斥著虛假訊息的輿論環境中獲利。

僅僅因為這項技術的存在,人們就可以輕易地聲稱:「我沒說過,這是深度偽造!」而要證明內容是真的,卻變得異常困難。最著名的例子就是川普,他曾聲稱《華盛頓郵報》公佈的那段其用粗鄙的、侮辱語言冒犯女性的錄音是假的。而事實是,錄音公佈不久後,他還曾為此公開道過歉。

經驗教訓

大多數虛假訊息的傳播都有其目的:讓公眾產生懷疑;支持某種流行觀點;或者高調反對其他觀點。對於被剝離了上下文、經過剪輯或刻意擺拍的圖片和音頻,想要進行驗證非常具有挑戰性,但不要因此恐慌。只要學會看來源、查憑證、多比對、細觀察,你還是可以在訊息洪流中保持清醒,不做虛假內容的「搬運工」。

這篇文章屬於德國之聲「事實核查」之提升數字素養專題。點擊這裡,瞭解更多網路防騙招數!

DW中文有Instagram!歡迎搜尋dw.chinese,看更多深入淺出的圖文與影音報導。

© 2025年德國之聲版權聲明:本文所有內容受到著作權法保護,如無德國之聲特別授權,不得擅自使用。任何不當行為都將導致追償,並受到刑事追究。

跳轉至下一欄 瀏覽更多相關内容
跳轉至下一欄 DW熱門報導

DW熱門報導

跳轉至下一欄 更多DW報導