什麼是Deepfake深偽詐騙?(2025 最新台灣案例總整理)

深偽技術是利用人工智慧 (AI) 與機器學習 (Machine Learning, ML) 合成的新媒體形式。透過「換臉」、控制嘴唇動作、或植入假造的音源檔等手段,它能產生模仿人們講話或動作的超逼真影片或音訊,使其看起來就像是當事人真的說過或做過這些事情一樣。

最初,這項技術被用於製作色情、政治宣傳或嘲諷影片,且網路上流傳著上萬個深偽造假內容。隨著「換臉」軟體的普及,深度偽造內容也愈來愈多,甚至被廣泛用於犯罪。


深度偽造 (Deepfake)技術能產生模仿人們講話或動作的超逼真影片或音訊,使其看起來就像是當事人真的說過或做過這些事情一樣。現在甚至出現「換臉」軟體,也讓深度偽造 (deepfake)惡搞影片愈來愈多,甚至被用來犯罪。
這項利用人工智慧和機器學習(Machine learning,ML)(AI/ML)合成的媒體資訊(圖片、聲音、影像等),將明星、政客等知名人物的臉孔和聲音合成進成人影片,這種「影片換臉」的技術,不知情的人乍看之下就像以為被盜肖像的受害者 ,真的參與了A片演出。現在網路犯罪集團正利用深偽技術進行視訊電話詐騙,目的是獲取財務利益、欺騙與操縱他人,對一般個人和企業機構構成嚴重風險。

深偽 Deepfake 是「深度偽造」 的簡稱,利用AI與機器學習,它能產生模仿人們講話或動作的超逼真影片或音訊。
隨著「換臉」軟體的普及,目前已被廣泛用於犯罪。

⭕️ 重點預覽

繼續閱讀

AI 深偽影片為何在英國引發環境與倫理憂慮?

根據英國廣播公司(BBC)的報導,AI深偽影片(Deepfake Videos)在英國引發了日益增長的環境與倫理憂慮。 隨著人工智慧技術的飛速發展,影音內容的生成變得前所未有的逼真且容易。然而,這項技術的普及不僅在個人權利與社會道德層面投下了陰影,其背後龐大的運算需求,更對地球資源造成了不容忽視的壓力。

在英國,關於 AI深偽影片(Deepfake Videos)的憂慮主要集中在兩個方面:倫理道德環境影響

繼續閱讀

企業須留意!AI深偽助長高階主管、徵才流程與KYC詐騙

趨勢科技揭露採用深偽(deepfake)技術的網路犯罪劇本

【2025年7月10日,台北訊】全球網路資安領導廠商趨勢科技(東京證券交易所股票代碼:4704)今天發表一份新的報告,揭露採用深偽(deepfake)技術的網路犯罪規模和成熟度。隨著生成式AI工具變得更強大、更便宜、也更容易取得,駭客集團正迅速利用這些工具來支援各種攻擊,從商業詐騙、勒索,到身分盜用等。

請點選以下連結來閱讀這份完整報告「用深偽造假,直到成功為止:全面解析新式AI犯罪工具Deepfake it ’til You Make It: A Comprehensive View of the New AI Criminal Toolset

繼續閱讀

「徵配音員/有聲書錄製員」也能變詐騙!小心你的聲音被拿去騙你爸媽

「你沒被詐騙,不是你聰明,而是還沒遇到適合你的劇本」!這是網路流傳的防詐金句,AI 真愈來愈會演了!別以為只有名人會被AI仿聲,現在詐騙集團開始主動出擊,想辦法收集你的聲音,小心你上傳的短影片, 3秒就被AI 做成「分聲」詐騙親友。還不止如此,還可能讓你成為人頭帳戶。


近期Threads出現徵「有聲書錄製人員」的訊息,標榜自由、在家工作,私訊報名。資安專家和165反詐騙專線均指出,這是常見的詐騙手法,有多項疑點:工作描述過於簡單、薪資不明、聲稱無經驗可、僅以私訊聯繫、發布帳號不活躍。提供個資和聲音檔恐遭盜用或用於AI訓練詐騙。台灣事實查核中心已經證實是詐騙!提醒民眾勿輕易洩漏個資,應循正式管道應徵。趨勢科技AI 防詐達人也偵測到此為詐騙貼文,提醒民眾網路求職如有疑慮,可善用其截圖查證功能,並立即免費下載。請勿輕易洩漏個資,應循正式管道應徵。

趨勢科技防詐達人截圖查證發現這個Threads出現徵「有聲書錄製人員」的訊息,標榜自由、在家工作,私訊報名。是詐騙!
Threads出現徵「有聲書錄製人員」的訊息,標榜自由、在家工作,私訊報名。是詐騙!趨勢科技AI 防詐達人偵測到此為詐騙貼文,提醒民眾網路求職如有疑慮,可善用其截圖查證功能,並立即免費下載。請勿輕易洩漏個資,應循正式管道應徵。

通常歹徒會常在臉書、IG等社群發布有聲書錄音員徵才訊息,誘騙民眾主動加LINE好友。一旦成為好友,對方會假冒知名有聲書平台(如喜馬拉雅、讀墨)名義,說明工作內容並提供言情小說文本進行「線上試音」。

試音要求也暗藏玄機:需透過LINE語音功能「一句一句」錄製並傳送主角台詞。接著,詐騙方會謊稱錄音通過審核,並給予誇讚,再以協助註冊「公司內部錄音系統」為由,誘騙點擊釣魚連結,藉此竊取個資。

⭕️ 提醒:凡是要求加LINE好友、註冊不明系統的徵才資訊,務必提高警覺!

有聲書錄製詐騙並非新鮮事!早在2024年7月,藝人連俞涵就曾公開示警,有詐騙集團盜用她錄製有聲書的受訪影片進行虛假徵才,呼籲民眾提高警覺,切勿輕易提供個人資料。

趨勢科技的 AI 防詐達人是一套多功能反詐騙解決方案。
它不但能幫您即時偵測詐騙並發出警報,讓詐騙集團沒機會得手;還能讓您輕鬆確認自己看到的是不是詐騙。 趨勢科技AI 防詐達人 給您所需的工具和資訊來保護自己,讓您和家人、更加安心。
瞭解多功能反詐騙解決方案-「AI 防詐達人」 不論是廣告、網站或訊息,「詐騙查證」功能都可協助您立即確認是不是詐騙,您只需將您看到的內容分享給我們,其餘的就交給我們。

⦿擔心被網路詐騙?懷疑網路徵才訊息或收到的簡訊是詐騙?立即上傳截圖,即刻查證!

◎瞭解更多 趨勢科技AI 防詐達人
Android用戶請立即免費下載iOS用戶請立即免費下載

從去年暑假開始,就有詐騙集團盜用電子書的文案與圖片,甚至冒用知名配音員的影片,聲稱正在招募「配音員」錄製有聲書,還強調每小時可賺五百元。許多人一看到高薪機會便心動應徵,沒想到過程中卻被要求提供個人資料,之後更被拉進所謂的「投資群組」。近期,這類詐騙手法再度升級,這種以「招聘配音員」為幌子的新型態詐騙,歹徒鎖定應徵者,誘使其錄製多段語音樣本,並要求提供履歷與銀行帳戶等敏感資訊。他們假冒「錄取」名義,騙取應徵者完整的聲音素材,當你以為真的上工時,其實聲音早被偷走,帳戶資料也落入壞人手中。詐騙集團利用AI語音合成技術,模擬你的聲線向親友進行詐騙,打電話給你的家人演一齣「急需匯款」的戲碼,讓人防不勝防。更嚴重的是,他們還可能利用你的帳戶當人頭,拿去進行洗錢等犯罪操作。

避免在社群媒體上過度分享個人或親友資訊,以免讓詐騙集團有機可乘,提高其謊言的可信度。
⭕️ PC-cillin 檢查社群/網站隱私設定安全性 ⟫免費下載試用

⭕️ 防詐達人口訣:
密語暗號先講好 真假親友秒現形
先掛電話查真相 詐騙詭計立露餡
銀行資料不亂給 網路明牌別當真
視訊畫面別全信 山寨假人做白工
社群隱私需設定 拒當詐騙劇本庫

繼續閱讀

AI 詐騙盯上 Gmail 帳戶備用碼、假市調公司搜集聲紋?!AI助攻,從釣魚信、簡訊進化到分聲/分身詐騙

藝人王仁甫揭露了詐騙集團利用AI聲紋辨識系統進行詐騙的案例。他的女兒接到假借市場調查的電話,收集了她的聲紋。隨後,王仁甫的老婆季芹接到詐騙電話,內容竟是女兒的聲音,要求匯款。這種利用AI變聲技術進行詐騙的手法,讓王仁甫直呼「很恐怖」,並已報警處理。此事件提醒民眾,對於陌生來電應提高警覺,切勿輕易透露個人資訊,以防受騙。

☞ 延伸閱讀:兒子來電聲稱手機壞掉,要重新加LINE?七旬老翁急匯款 38 萬,險遭AI詐騙

網路釣魚手法不斷推陳出新,從過去的釣魚信件、釣魚簡訊,到如今 AI 加持的「分聲詐騙」和「分身詐騙」,網路釣魚手法已經變得更為精密且難以辨識。現在詐騙集團不僅能模仿家人朋友的聲音,甚至能打造一模一樣的影像來假扮親近的人,讓受害者防不勝防。無論是哪一種犯罪手法,其目的都在誘騙人們提供敏感資料 (如密碼或信用卡資料)、點選惡意連結,或下載危險檔案。歹徒會冒充一些值得信任的對象,例如:銀行、政府機關、知名企業,或是您的家人和朋友,然後誘騙受害者做出一些損害其隱私或安全的行為。

近期出現了一種新型態的詐騙手法。駭客利用 AI 技術,結合電話和釣魚郵件,誘騙用戶交出帳戶備用碼,這種新型詐騙通常從一通假冒 Google 官方人員的電話開始,聲稱用戶的 Gmail 帳戶出現異常活動。接著,用戶會收到一封看似來自 Google 的電子郵件,要求提供帳戶備用碼,以恢復帳戶。一旦用戶交出備用碼,駭客就能完全掌控其 Gmail 帳戶。提醒您,切勿點擊任何可疑連結或下載不明檔案,輸入個資前務必確認網站安全性。同時,建議使用密碼管理器和定期監控帳戶活動,以確保帳戶安全。



繼續閱讀