什麼是Deepfake深偽詐騙?(2025 最新台灣案例總整理)

深偽技術是利用人工智慧 (AI) 與機器學習 (Machine Learning, ML) 合成的新媒體形式。透過「換臉」、控制嘴唇動作、或植入假造的音源檔等手段,它能產生模仿人們講話或動作的超逼真影片或音訊,使其看起來就像是當事人真的說過或做過這些事情一樣。

最初,這項技術被用於製作色情、政治宣傳或嘲諷影片,且網路上流傳著上萬個深偽造假內容。隨著「換臉」軟體的普及,深度偽造內容也愈來愈多,甚至被廣泛用於犯罪。


深度偽造 (Deepfake)技術能產生模仿人們講話或動作的超逼真影片或音訊,使其看起來就像是當事人真的說過或做過這些事情一樣。現在甚至出現「換臉」軟體,也讓深度偽造 (deepfake)惡搞影片愈來愈多,甚至被用來犯罪。
這項利用人工智慧和機器學習(Machine learning,ML)(AI/ML)合成的媒體資訊(圖片、聲音、影像等),將明星、政客等知名人物的臉孔和聲音合成進成人影片,這種「影片換臉」的技術,不知情的人乍看之下就像以為被盜肖像的受害者 ,真的參與了A片演出。現在網路犯罪集團正利用深偽技術進行視訊電話詐騙,目的是獲取財務利益、欺騙與操縱他人,對一般個人和企業機構構成嚴重風險。

深偽 Deepfake 是「深度偽造」 的簡稱,利用AI與機器學習,它能產生模仿人們講話或動作的超逼真影片或音訊。
隨著「換臉」軟體的普及,目前已被廣泛用於犯罪。

⭕️ 重點預覽

繼續閱讀

AI 深偽影片為何在英國引發環境與倫理憂慮?

根據英國廣播公司(BBC)的報導,AI深偽影片(Deepfake Videos)在英國引發了日益增長的環境與倫理憂慮。 隨著人工智慧技術的飛速發展,影音內容的生成變得前所未有的逼真且容易。然而,這項技術的普及不僅在個人權利與社會道德層面投下了陰影,其背後龐大的運算需求,更對地球資源造成了不容忽視的壓力。

在英國,關於 AI深偽影片(Deepfake Videos)的憂慮主要集中在兩個方面:倫理道德環境影響

繼續閱讀

趨勢科技攜手NVIDIA推出針對代理式AI系統的端對端防護方案

透過無代理EDR與整合式防護欄,從基礎架構到應用層全面延伸代理式AI資安防護,守護新世代AI工廠

全球網路資安領導廠商趨勢科技(東京證券交易所股票代碼:4704)宣布與NVIDIA BlueField展開全新整合,將防護直接嵌入資料中心層級,為AI工廠提供更安全且具擴展性的防護。此全新方案讓企業能更快速部署AI,同時降低多租戶AI雲環境中的風險,並符合嚴格的合規要求。

了解更多有關Trend Vision One™ Endpoint Security與NVIDIA BlueField DPU的整合方案,請參閱:https://www.trendmicro.com/zh_tw/business/ai/factory.html

NVIDIA BlueField資料處理單元(DPU)是一款專為從中央處理器(CPU)分擔、加速及隔離基礎架構與資安任務而設計的處理器。Trend Vision One™ Endpoint Security(AI Factory端點偵測與回應,EDR)部署於NVIDIA BlueField上,能蒐集並監控主機與網路資訊,並與趨勢科技威脅情報進行關聯分析,以偵測可疑行為。除了此次與BlueField整合外,趨勢科技也是首批通過NVIDIA RTX PRO Server驗證的資安廠商之一,為AI工廠帶來專為企業級環境打造的資安防護。

繼續閱讀

趨勢科技警告:數以千計的AI伺服器正暴露在網路上

最新研究顯示基礎架構層的風險正因各種不同的元件而持續攀升

【2025年8月12日,台北訊】全球網路資安領導廠商趨勢科技(東京證券交易所股票代碼:4704)呼籲AI工程師與IT領導人應妥善建立程式開發最佳實務原則並部署安全系統,否則公司將暴露於資料竊取、資料下毒、網路勒索等其他攻擊的風險當中。

進一步了解資安人員及駭客如何運用AI,請閱讀「趨勢科技2025上半年AI資安現況報告」(Trend State of AI Security Report, 1H 2025)

【圖說一】趨勢科技最新研究警告:數以千計的AI伺服器正暴露在網路上
繼續閱讀

Slopsquatting:當 AI代理幻覺遇上惡意套件

本文探討 AI 程式設計助理如何因幻覺而生成出一些看似合理但實際上卻不存在的套件名稱,進而衍生能讓駭客預先設下陷阱的「slopsquatting」攻擊。此外,本文也提供一些企業可用來保護開發流程的實務策略。

下載這份技術摘要

主要重點

  • Slopsquatting 是現代化 AI 驅動軟體開發流程的一項供應鏈威脅,起因於 AI 程式設計代理因為幻覺而生成一些看似合理但實際上卻不存在的套件名稱,使得駭客有機會預先設下陷阱來散播惡意程式。
  • 儘管進階程式設計代理與工作流程,如:Claude Code CLI、OpenAI Codex CLI 以及 Cursor AI 搭配 MCP 作後端驗證,有助於降低幽靈相依元件 (phantom dependencies) 的風險,但仍無法徹底根除,因為就算即時驗證也無法捕捉每一種邊緣案例。
  • 常見的失敗情況包括:填補情境漏洞與模仿表面形式,也就是 AI 代理根據使用者的意圖與符合統計的慣例而捏造出看似合理的套件名稱,卻沒有確實檢查套件名稱是否真的存在。
  • 防範這類威脅需要從多重管道下手,結合最佳實務原則 (例如透過軟體物料清單來追蹤源頭)、自動化漏洞掃描、在沙盒模擬環境內測試安裝、即時驗證套件,以及人員監督,如此才能真正保護 AI 驅動的開發流程。

想像一下這樣的情境:您的開發時程相當緊迫,但您擁有一套可靠的 AI 程式設計助理來自動幫您完成函式撰寫、推薦可用相依元件,甚至幫您即時呼叫 pip 安裝指令。您正深深沉醉在所謂的「氛圍程式設計」(vibe coding) 開發流程當中,在 AI 的協助下,您的點子幾乎豪不費力就變成了程式碼,感覺就好像在變魔術一樣,直到一切突然停止運作。

在研究過程當中,我們曾看到一個進階 AI 代理自豪地無中生有了一個看似完全合理的套件名稱,但隨後卻在程式實際組建時發生「找不到模組」的窘境。然而更令人擔憂的是,這些幽靈套件說不定已經存在於 PyPI 當中,因為某個駭客已經註冊了這些套件名稱,等著開發人員上鉤,自己將惡意程式碼帶入工作流程當中。

圖 1:AI 代理幻想出一個根本不存在的套件名稱 (上演 slopsquatting)。

對 AI 開發人員來說,這些暫時性的錯誤不單只是造成不便而已,而是一種新式供應鏈攻擊的機會之窗。當 AI 代理幻想出不存在的相依元件或安裝未經檢查的套件時,就等於為slopsquatting 創造了機會,因為駭客會在公開登錄上預先註冊這些幻想出來的名稱。

本文探討這些幻覺是如何出現在進階 AI 代理當中,並說明其潛在的影響,提供企業一些維護開發流程安全以防範類似威脅的行動建議。

何謂 slopsquatting?

繼續閱讀