什麼是Deepfake深偽詐騙?(2025 最新台灣案例總整理)

深偽技術是利用人工智慧 (AI) 與機器學習 (Machine Learning, ML) 合成的新媒體形式。透過「換臉」、控制嘴唇動作、或植入假造的音源檔等手段,它能產生模仿人們講話或動作的超逼真影片或音訊,使其看起來就像是當事人真的說過或做過這些事情一樣。

最初,這項技術被用於製作色情、政治宣傳或嘲諷影片,且網路上流傳著上萬個深偽造假內容。隨著「換臉」軟體的普及,深度偽造內容也愈來愈多,甚至被廣泛用於犯罪。


深度偽造 (Deepfake)技術能產生模仿人們講話或動作的超逼真影片或音訊,使其看起來就像是當事人真的說過或做過這些事情一樣。現在甚至出現「換臉」軟體,也讓深度偽造 (deepfake)惡搞影片愈來愈多,甚至被用來犯罪。
這項利用人工智慧和機器學習(Machine learning,ML)(AI/ML)合成的媒體資訊(圖片、聲音、影像等),將明星、政客等知名人物的臉孔和聲音合成進成人影片,這種「影片換臉」的技術,不知情的人乍看之下就像以為被盜肖像的受害者 ,真的參與了A片演出。現在網路犯罪集團正利用深偽技術進行視訊電話詐騙,目的是獲取財務利益、欺騙與操縱他人,對一般個人和企業機構構成嚴重風險。

深偽 Deepfake 是「深度偽造」 的簡稱,利用AI與機器學習,它能產生模仿人們講話或動作的超逼真影片或音訊。
隨著「換臉」軟體的普及,目前已被廣泛用於犯罪。

⭕️ 重點預覽

繼續閱讀

AI 深偽影片為何在英國引發環境與倫理憂慮?

根據英國廣播公司(BBC)的報導,AI深偽影片(Deepfake Videos)在英國引發了日益增長的環境與倫理憂慮。 隨著人工智慧技術的飛速發展,影音內容的生成變得前所未有的逼真且容易。然而,這項技術的普及不僅在個人權利與社會道德層面投下了陰影,其背後龐大的運算需求,更對地球資源造成了不容忽視的壓力。

在英國,關於 AI深偽影片(Deepfake Videos)的憂慮主要集中在兩個方面:倫理道德環境影響

繼續閱讀

企業須留意!AI深偽助長高階主管、徵才流程與KYC詐騙

趨勢科技揭露採用深偽(deepfake)技術的網路犯罪劇本

【2025年7月10日,台北訊】全球網路資安領導廠商趨勢科技(東京證券交易所股票代碼:4704)今天發表一份新的報告,揭露採用深偽(deepfake)技術的網路犯罪規模和成熟度。隨著生成式AI工具變得更強大、更便宜、也更容易取得,駭客集團正迅速利用這些工具來支援各種攻擊,從商業詐騙、勒索,到身分盜用等。

請點選以下連結來閱讀這份完整報告「用深偽造假,直到成功為止:全面解析新式AI犯罪工具Deepfake it ’til You Make It: A Comprehensive View of the New AI Criminal Toolset

繼續閱讀

  AI變臉影片詐騙橫行!假台大院長賣減肥藥、假警騙千萬  AI防詐達人「視訊換臉詐騙偵測」一鍵下載立即守護!

【AI防詐達人】 可即時辨識是否 AI 變臉,守護你和家人的財產安全!立即免費下載

【打詐週報】   上週新聞才披露假冒檢警視訊「做筆錄」,婦人被騙進9000萬,本週又有AI換臉冒名台大院長影片賣減肥藥的新聞。另外一頁式購物詐騙、假投資吸金、甚至自然人憑證、人頭帳戶也淪為詐騙工具。從名人手機中毒、民眾收到「催繳帳單」或「快遞簡訊」,到誤信假理專、假公文、假補助、假租屋,幾乎每個生活環節都有詐騙陷阱潛伏其中。
提醒大家:再小的個資也可能成為犯罪破口,再高的報酬都可能是陷阱包裝。
⚠️ 防詐意識不能放假,務必查證來源、慎防話術、保護帳戶與憑證資訊,共同守住你的血汗錢。

本週打詐頭條新聞

在AI技術高速發展的今日,詐騙手法也持續升級,近日台灣發生兩起引發關注的AI詐騙事件。

台大醫院日前發現,有詐騙集團利用AI技術製作假影片,冒用院長吳明賢名義,假稱推薦「喝的瘦瘦針」,並在臉書粉專宣稱購買藥品還送禮券,吸引民眾上當。院方澄清,從未販售任何泌尿、減重產品,並已報警處理。詐騙者甚至偽造「台大醫院-代謝分泌科」粉專,讓不知情民眾誤信權威背書。

繼續閱讀

AI 詐騙盯上 Gmail 帳戶備用碼、假市調公司搜集聲紋?!AI助攻,從釣魚信、簡訊進化到分聲/分身詐騙

藝人王仁甫揭露了詐騙集團利用AI聲紋辨識系統進行詐騙的案例。他的女兒接到假借市場調查的電話,收集了她的聲紋。隨後,王仁甫的老婆季芹接到詐騙電話,內容竟是女兒的聲音,要求匯款。這種利用AI變聲技術進行詐騙的手法,讓王仁甫直呼「很恐怖」,並已報警處理。此事件提醒民眾,對於陌生來電應提高警覺,切勿輕易透露個人資訊,以防受騙。

☞ 延伸閱讀:兒子來電聲稱手機壞掉,要重新加LINE?七旬老翁急匯款 38 萬,險遭AI詐騙

網路釣魚手法不斷推陳出新,從過去的釣魚信件、釣魚簡訊,到如今 AI 加持的「分聲詐騙」和「分身詐騙」,網路釣魚手法已經變得更為精密且難以辨識。現在詐騙集團不僅能模仿家人朋友的聲音,甚至能打造一模一樣的影像來假扮親近的人,讓受害者防不勝防。無論是哪一種犯罪手法,其目的都在誘騙人們提供敏感資料 (如密碼或信用卡資料)、點選惡意連結,或下載危險檔案。歹徒會冒充一些值得信任的對象,例如:銀行、政府機關、知名企業,或是您的家人和朋友,然後誘騙受害者做出一些損害其隱私或安全的行為。

近期出現了一種新型態的詐騙手法。駭客利用 AI 技術,結合電話和釣魚郵件,誘騙用戶交出帳戶備用碼,這種新型詐騙通常從一通假冒 Google 官方人員的電話開始,聲稱用戶的 Gmail 帳戶出現異常活動。接著,用戶會收到一封看似來自 Google 的電子郵件,要求提供帳戶備用碼,以恢復帳戶。一旦用戶交出備用碼,駭客就能完全掌控其 Gmail 帳戶。提醒您,切勿點擊任何可疑連結或下載不明檔案,輸入個資前務必確認網站安全性。同時,建議使用密碼管理器和定期監控帳戶活動,以確保帳戶安全。



繼續閱讀