FBI緊急警告!一張社群照片+AI深偽術,你恐成「綁架影片主角」騙你家人

公開照片變詐騙素材!AI生成「假綁架影片」激增

你今天在社群媒體上分享的微笑照片,可能就是明天AI詐騙集團用來勒索你家人的恐怖工具。聯邦調查局(FBI)發出最高級別的緊急警告:透過一張公開照片,結合AI深偽(Deepfake)技術,詐騙者正打造出栩栩如生的『虛擬綁架』影片,讓你成為人質,進而對你的親人實施情感與金錢勒索。這不再是傳統的詐騙,而是一場衝著你和你的家人而來、結合高科技的『數位綁架風暴』。請立即閱讀,了解如何防範這場結合AI技術的新型犯罪!


八點檔男神」曾子益,出現在視訊的另一頭! 沒想到竟然是詐騙集團利用「AI深偽影片」或「仿造真人語音」,要求你匯款、提供驗證碼或洩漏個資! 


繼續閱讀

什麼是Deepfake深偽詐騙?(2025 最新台灣案例總整理)

什麼是深偽影片?

深偽影片是一種逼真到讓人不容易起疑的影片,這類影片人類肉眼越來越難分辨它們是 AI 所生成的,對資料安全帶來了極大的風險。

深偽技術是利用人工智慧 (AI) 與機器學習 (Machine Learning, ML) 合成的新媒體形式。透過「換臉」、控制嘴唇動作、或植入假造的音源檔等手段,它能產生模仿人們講話或動作的超逼真影片或音訊,使其看起來就像是當事人真的說過或做過這些事情一樣。

要製作深偽影片,通常需要先對原始內容進行深度的分析。一些必要的細節,如臉部特徵與動作、尺寸比例、膚色、髮色與眼睛顏色,以及肢體語言,都盡可能準確地輸入 AI 模型當中,以生成盡可能準確的擬真影像。同樣的原則也適用於影片的背景,如果目標對象出現的場景是知名的地點,那麼駭客就會利用一些原始影像和影片來盡可能準確地加以呈現。

最初,這項技術被用於製作色情、政治宣傳或嘲諷影片,且網路上流傳著上萬個深偽造假內容。隨著「換臉」軟體的普及,深度偽造內容也愈來愈多,甚至被廣泛用於犯罪。


深度偽造 (Deepfake)技術能產生模仿人們講話或動作的超逼真影片或音訊,使其看起來就像是當事人真的說過或做過這些事情一樣。現在甚至出現「換臉」軟體,也讓深度偽造 (deepfake)惡搞影片愈來愈多,甚至被用來犯罪。

與生成深偽影片一樣,駭客也能用網路上找到的材料來訓練 AI 生成聲音。其參考來源通常是被模仿對象的語音郵件訊息、電話內容、參加 Podcast 與新聞訪談的錄音,以及真實影片當中的聲音。

生成的聲音有時聽起來非常逼真,跟原始材料中的聲音非常相似,讓人難辨真假。駭客使用的生成式 AI 工具會分析聲音的一些關鍵細節,包括:口氣、音調、說話特徵、口齒清晰度,以及原始對象講話的聲音情緒。


這項利用人工智慧和機器學習(Machine learning,ML)(AI/ML)合成的媒體資訊(圖片、聲音、影像等),將明星、政客等知名人物的臉孔和聲音合成進成人影片,這種「影片換臉」的技術,不知情的人乍看之下就像以為被盜肖像的受害者 ,真的參與了A片演出。現在網路犯罪集團正利用深偽技術進行視訊電話詐騙,目的是獲取財務利益、欺騙與操縱他人,對一般個人和企業機構構成嚴重風險。

深偽 Deepfake 是「深度偽造」 的簡稱,利用AI與機器學習,它能產生模仿人們講話或動作的超逼真影片或音訊。
隨著「換臉」軟體的普及,目前已被廣泛用於犯罪。

⭕️ 重點預覽

繼續閱讀

什麼是 Deepfake(深偽)?為什麼你我都可能成為受害者? 辨識深偽視訊詐騙電話的五個祕訣

深偽(Deepfake)是近年最受注目的 AI 資安議題。
隨著生成式 AI 技術快速普及,詐騙集團利用 Deepfake 模仿聲音、臉部、甚至整段視訊,讓你在通話時無法立即分辨真假。
許多人搜尋深偽相關資訊時最常問:

  • Deepfake 真的能偽裝成「你認識的人」嗎?
  • 視訊電話詐騙怎麼用 AI 假冒?
  • 有什麼 AI 工具能幫我辨識深偽?
  • 我怎麼知道對方是不是在用換臉詐騙?

本篇,幫你一次看懂深偽詐騙,並學會如何用 AI 工具提升安全。

⟫ 看答案

深偽(Deepfake)指透過生成式 AI 變造的 聲音、影像或文字,讓內容看起來與真實無異。

AI 模型能:

  • 複製某人的聲音
  • 套用某人的臉
  • 模仿說話方式
  • 生成看似真實的視訊

這代表,只要詐騙集團取得你的照片、影片或錄音,就能假扮你或你身邊的人。

深偽一詞是「深度偽造」(Deepfake) 的簡稱,涵蓋了所有經過生成式 AI (GenAI) 變造的聲音、視覺或文字內容。會被網路犯罪集團用來獲取財務利益、欺騙與操縱他人。

深偽技術(Deepfake) 詐騙影片是使用人工智慧 (AI) 來產生模仿人們講話或動作的超逼真影片或音訊,就如同他們真的說過那些話或真的做過那些事情一樣。深偽技術正被歹徒用來從事視訊電話詐騙,對一般個人和企業機構都構成了嚴重風險。

當您在進行視訊電話時,您如何知道對方是否為真人,還使用深偽技術做出來的冒牌貨?在一個充斥著深偽的世界,眼見不再為憑,所以,認識及對抗這類技術所帶來的風險,比以往更加重要。欲了解什麼是深偽,以及如何辨識,請參閱這篇「深偽Deepfak是什麼?」(Deepfake 101) 貼文。

繼續閱讀

AI換臉真假難辨?六招辨別深偽(Deepfake)詐騙影片

「深偽」(Deepfake) 一詞是深度學習 (deep learning) 與偽造 (fake) 的合體,由 Reddit 的一名使用者在 2017 年所創。深偽可以是一個模仿某人外貌或聲音的偽造照片、影片或錄音,其目的是要用於欺騙或娛樂大眾。在先進的機器學習加持下,深偽有時非常逼真。過去,深偽主要是在社群媒體上作為娛樂用途,但其濫用的潛力很快就被人發現。現在,深偽已成為隱私、安全及資訊傳播的一大威脅。趨勢科技在 2024 年 6 月做了一份研究指出,有 71% 的人對於深偽抱持負面的看法,相信任人們製作深偽的首要原因就是為了詐騙1


深偽是如何製作的?


製作深偽需要用到一種叫做「生成對抗網路」(Generative Adversarial Network,簡稱 GAN) 的高階電腦程式來製作逼真的影像。主要分成四大步驟:

繼續閱讀

眼見為憑?你親眼看到的未必是真的, Deepfake 惡意視訊假冒俄羅斯反對派人士

近日歐洲國會議員以為他們正在通過Zoom與俄羅斯反對派人員視訊交談,但後來發現是長相看起來一模一樣的個騙子!首次利用深偽技術(Deepfake)來進行惡意視訊可能已經出現……

deepfake

2017年 12月《神力女超人》(Wonder Woman)女主角蓋兒加朵(Gal Gadot) 的臉被移花接木到A片上,逼真度簡直毫無破綻。該段影片是以AI演算法產生,機器大量讀取蓋兒加朵(Gal Gadot)的影像後,複製出一張相似度極高的臉孔,再覆蓋A片女主角臉上。


華盛頓大學研究團隊2017年也發表一系列美國前總統歐巴馬的「造假」影片,當時該團隊僅分析17小時的歐巴馬演講影片就達到惟妙惟肖的成果。台灣總統大選期間,也有某候選人被惡搞。
現在甚至出現「換臉」軟體出,也讓深度偽造 (deepfake)惡搞影片愈來愈多。

趨勢科技在這幾年來一直在警告深偽技術(Deepfake)的技術日趨成熟。它利用AI技術製作聲音和影像來欺騙使用者相信它是真實的。

不幸的是,幾天前的事件顯示出此技術可能已經發展非常迅速,取得長足的進步。

四月底的一個例子讓我們知道此技術在短短幾年內取得了多大的進步。英國、拉脫維亞、愛沙尼亞、立陶宛和荷蘭等歐洲多國的議員,頻頻接到俄羅斯反對派領導人阿列克謝·納瓦尼(Alexei Navalny)的親密盟友兼參謀長列昂尼德·沃爾科夫(Leonid Volkov)的視訊通話。直到其中一位政治人物發出螢幕截圖指出該視訊可能是造假。(相關報導: 俄反對派遭人用Deepfake冒充)

繼續閱讀