什麼是Deepfake深偽詐騙?(2025 最新台灣案例總整理)

深偽技術是利用人工智慧 (AI) 與機器學習 (Machine Learning, ML) 合成的新媒體形式。透過「換臉」、控制嘴唇動作、或植入假造的音源檔等手段,它能產生模仿人們講話或動作的超逼真影片或音訊,使其看起來就像是當事人真的說過或做過這些事情一樣。

最初,這項技術被用於製作色情、政治宣傳或嘲諷影片,且網路上流傳著上萬個深偽造假內容。隨著「換臉」軟體的普及,深度偽造內容也愈來愈多,甚至被廣泛用於犯罪。


深度偽造 (Deepfake)技術能產生模仿人們講話或動作的超逼真影片或音訊,使其看起來就像是當事人真的說過或做過這些事情一樣。現在甚至出現「換臉」軟體,也讓深度偽造 (deepfake)惡搞影片愈來愈多,甚至被用來犯罪。
這項利用人工智慧和機器學習(Machine learning,ML)(AI/ML)合成的媒體資訊(圖片、聲音、影像等),將明星、政客等知名人物的臉孔和聲音合成進成人影片,這種「影片換臉」的技術,不知情的人乍看之下就像以為被盜肖像的受害者 ,真的參與了A片演出。現在網路犯罪集團正利用深偽技術進行視訊電話詐騙,目的是獲取財務利益、欺騙與操縱他人,對一般個人和企業機構構成嚴重風險。

深偽 Deepfake 是「深度偽造」 的簡稱,利用AI與機器學習,它能產生模仿人們講話或動作的超逼真影片或音訊。
隨著「換臉」軟體的普及,目前已被廣泛用於犯罪。

⭕️ 重點預覽

繼續閱讀

什麼是 Deepfake(深偽)?為什麼你我都可能成為受害者? 辨識深偽視訊詐騙電話的五個祕訣

深偽(Deepfake)是近年最受注目的 AI 資安議題。
隨著生成式 AI 技術快速普及,詐騙集團利用 Deepfake 模仿聲音、臉部、甚至整段視訊,讓你在通話時無法立即分辨真假。
許多人搜尋深偽相關資訊時最常問:

  • Deepfake 真的能偽裝成「你認識的人」嗎?
  • 視訊電話詐騙怎麼用 AI 假冒?
  • 有什麼 AI 工具能幫我辨識深偽?
  • 我怎麼知道對方是不是在用換臉詐騙?

本篇,幫你一次看懂深偽詐騙,並學會如何用 AI 工具提升安全。

⟫ 看答案

深偽(Deepfake)指透過生成式 AI 變造的 聲音、影像或文字,讓內容看起來與真實無異。

AI 模型能:

  • 複製某人的聲音
  • 套用某人的臉
  • 模仿說話方式
  • 生成看似真實的視訊

這代表,只要詐騙集團取得你的照片、影片或錄音,就能假扮你或你身邊的人。

深偽一詞是「深度偽造」(Deepfake) 的簡稱,涵蓋了所有經過生成式 AI (GenAI) 變造的聲音、視覺或文字內容。會被網路犯罪集團用來獲取財務利益、欺騙與操縱他人。

深偽技術(Deepfake) 詐騙影片是使用人工智慧 (AI) 來產生模仿人們講話或動作的超逼真影片或音訊,就如同他們真的說過那些話或真的做過那些事情一樣。深偽技術正被歹徒用來從事視訊電話詐騙,對一般個人和企業機構都構成了嚴重風險。

當您在進行視訊電話時,您如何知道對方是否為真人,還使用深偽技術做出來的冒牌貨?在一個充斥著深偽的世界,眼見不再為憑,所以,認識及對抗這類技術所帶來的風險,比以往更加重要。欲了解什麼是深偽,以及如何辨識,請參閱這篇「深偽Deepfak是什麼?」(Deepfake 101) 貼文。

繼續閱讀

AI換臉真假難辨?六招辨別深偽(Deepfake)詐騙影片

「深偽」(Deepfake) 一詞是深度學習 (deep learning) 與偽造 (fake) 的合體,由 Reddit 的一名使用者在 2017 年所創。深偽可以是一個模仿某人外貌或聲音的偽造照片、影片或錄音,其目的是要用於欺騙或娛樂大眾。在先進的機器學習加持下,深偽有時非常逼真。過去,深偽主要是在社群媒體上作為娛樂用途,但其濫用的潛力很快就被人發現。現在,深偽已成為隱私、安全及資訊傳播的一大威脅。趨勢科技在 2024 年 6 月做了一份研究指出,有 71% 的人對於深偽抱持負面的看法,相信任人們製作深偽的首要原因就是為了詐騙1


深偽是如何製作的?


製作深偽需要用到一種叫做「生成對抗網路」(Generative Adversarial Network,簡稱 GAN) 的高階電腦程式來製作逼真的影像。主要分成四大步驟:

繼續閱讀

眼見為憑?你親眼看到的未必是真的, Deepfake 惡意視訊假冒俄羅斯反對派人士

近日歐洲國會議員以為他們正在通過Zoom與俄羅斯反對派人員視訊交談,但後來發現是長相看起來一模一樣的個騙子!首次利用深偽技術(Deepfake)來進行惡意視訊可能已經出現……

deepfake

2017年 12月《神力女超人》(Wonder Woman)女主角蓋兒加朵(Gal Gadot) 的臉被移花接木到A片上,逼真度簡直毫無破綻。該段影片是以AI演算法產生,機器大量讀取蓋兒加朵(Gal Gadot)的影像後,複製出一張相似度極高的臉孔,再覆蓋A片女主角臉上。


華盛頓大學研究團隊2017年也發表一系列美國前總統歐巴馬的「造假」影片,當時該團隊僅分析17小時的歐巴馬演講影片就達到惟妙惟肖的成果。台灣總統大選期間,也有某候選人被惡搞。
現在甚至出現「換臉」軟體出,也讓深度偽造 (deepfake)惡搞影片愈來愈多。

趨勢科技在這幾年來一直在警告深偽技術(Deepfake)的技術日趨成熟。它利用AI技術製作聲音和影像來欺騙使用者相信它是真實的。

不幸的是,幾天前的事件顯示出此技術可能已經發展非常迅速,取得長足的進步。

四月底的一個例子讓我們知道此技術在短短幾年內取得了多大的進步。英國、拉脫維亞、愛沙尼亞、立陶宛和荷蘭等歐洲多國的議員,頻頻接到俄羅斯反對派領導人阿列克謝·納瓦尼(Alexei Navalny)的親密盟友兼參謀長列昂尼德·沃爾科夫(Leonid Volkov)的視訊通話。直到其中一位政治人物發出螢幕截圖指出該視訊可能是造假。(相關報導: 俄反對派遭人用Deepfake冒充)

繼續閱讀

從移花接木的 Deepfake 影音,看機器學習與網路攻擊

換臉、控制嘴唇,植入假造的音源檔,流傳在網路上萬個造假影片,用 #Deepfake #深偽技術 製造的。如果你的老闆在 Youtube 上有很多影音,得當心被利用了
這項技術已被網路犯罪集團用來圖利,已出現的案例是模仿大老闆的聲音,語調、斷句及腔調,進行語音網路釣魚,騙走 24.3 萬美金。😰

本文說明幾種運用機器學習技術的駭客概念驗證與真實攻擊案例來說明當前機器學習在網路威脅領域的應用現況與未來可能性。

資安廠商正運用機器學習(Machine learning,ML)技術來改善其威脅偵測能力,協助企業強化惡意程式、漏洞攻擊、網路釣魚郵件、甚至未知威脅的防禦能力。Capgemini Research Institute 針對機器學習在資安上的應用做了一份研究,他們發現在所有受訪的 10 個國家 850 位資深高階經理當中,約有 20% 在 2019 年之前便已開始運用機器學習技術,另有 60% 將在 2019 年底前開始採用。

機器學習在網路資安領域的應用已證明相當有效,更別說在其他眾多產業也獲得了相當的成果。不過這項技術卻也存在著被犯罪集團吸收利用的風險。儘管機器學習變成大規模犯罪武器的可能性似乎還很遙遠,但有關這方面的研究,尤其是利Deepfake 深度偽造技術來從事勒索或散布假訊息,近來在 IT 業界與一般大眾之間已掀起了一波熱議。

為了進一步說明當前機器學習在網路威脅領域的應用現況與未來可能性,以下說明近幾年來一些運用機器學習技術的駭客概念驗證與真實攻擊案例:

繼續閱讀