什麼是深偽影片?
深偽影片是一種逼真到讓人不容易起疑的影片,這類影片人類肉眼越來越難分辨它們是 AI 所生成的,對資料安全帶來了極大的風險。
深偽技術是利用人工智慧 (AI) 與機器學習 (Machine Learning, ML) 合成的新媒體形式。透過「換臉」、控制嘴唇動作、或植入假造的音源檔等手段,它能產生模仿人們講話或動作的超逼真影片或音訊,使其看起來就像是當事人真的說過或做過這些事情一樣。
要製作深偽影片,通常需要先對原始內容進行深度的分析。一些必要的細節,如臉部特徵與動作、尺寸比例、膚色、髮色與眼睛顏色,以及肢體語言,都盡可能準確地輸入 AI 模型當中,以生成盡可能準確的擬真影像。同樣的原則也適用於影片的背景,如果目標對象出現的場景是知名的地點,那麼駭客就會利用一些原始影像和影片來盡可能準確地加以呈現。
最初,這項技術被用於製作色情、政治宣傳或嘲諷影片,且網路上流傳著上萬個深偽造假內容。隨著「換臉」軟體的普及,深度偽造內容也愈來愈多,甚至被廣泛用於犯罪。

「深度偽造 (Deepfake)技術能產生模仿人們講話或動作的超逼真影片或音訊,使其看起來就像是當事人真的說過或做過這些事情一樣。現在甚至出現「換臉」軟體,也讓深度偽造 (deepfake)惡搞影片愈來愈多,甚至被用來犯罪。
與生成深偽影片一樣,駭客也能用網路上找到的材料來訓練 AI 生成聲音。其參考來源通常是被模仿對象的語音郵件訊息、電話內容、參加 Podcast 與新聞訪談的錄音,以及真實影片當中的聲音。
生成的聲音有時聽起來非常逼真,跟原始材料中的聲音非常相似,讓人難辨真假。駭客使用的生成式 AI 工具會分析聲音的一些關鍵細節,包括:口氣、音調、說話特徵、口齒清晰度,以及原始對象講話的聲音情緒。
這項利用人工智慧和機器學習(Machine learning,ML)(AI/ML)合成的媒體資訊(圖片、聲音、影像等),將明星、政客等知名人物的臉孔和聲音合成進成人影片,這種「影片換臉」的技術,不知情的人乍看之下就像以為被盜肖像的受害者 ,真的參與了A片演出。現在網路犯罪集團正利用深偽技術進行視訊電話詐騙,目的是獲取財務利益、欺騙與操縱他人,對一般個人和企業機構構成嚴重風險。

⭕️ 重點預覽
- 台灣近期真實案例
-20萬粉絲!爆紅健康頻道竟是AI假醫師,錯誤資訊恐危及長者健康
-仿真視訊、客製化騙局、情感陪伴,深偽詐騙已形成完整黑產鏈,全台月損 60 億
-台積電聲明:張忠謀夫婦.魏哲家均未經營FB臉書
-兩位AI 假縣長遭深偽影片假冒代言農產品
-醫療肺癌名醫/全台最難掛的骨科名醫都遭冒名詐騙 - 深偽換臉詐騙最愛盜用的四種身份
- 辨識深偽視訊詐騙電話的五個防範祕訣
近年來,台灣已成為 AI 深偽詐騙(AI Deepfake Scam) 的熱點。從政府官員到醫療名人,再到企業高層,無人能倖免。深偽影片與假內容正以極快速度滲透社群平台、廣告與搜尋引擎,對品牌、公眾人物與個人信任造成前所未有的衝擊。
⭕️20萬粉絲!爆紅健康頻道竟是AI假醫師,錯誤資訊恐危及長者健康
YouTube 數個坐擁 20 萬粉絲、觀看次數破百萬的爆紅健康頻道,被揭露內容全為 AI 生成的假醫師影片,且傳遞 錯誤百出 的醫療知識。由於年長者特別容易受誤導並轉傳,公眾健康面臨嚴峻風險。
⭕️ 仿真視訊、客製化騙局、情感陪伴,深偽詐騙已形成完整黑產鏈,全台月損 60 億
詐騙集團透過 AI 技術,打造出會仿真視訊、客製化騙局、甚至具備「情感陪伴」能力的精準劇本。這種高度擬真的詐騙手法,讓受害者在不知不覺中被引導至陷阱。
更令人擔憂的是,一旦被騙金流被迅速轉移至境外帳戶,想要追回資金往往已為時太晚,造成個人與社會難以挽回的損失。
相關報導:全台月損60 億!當詐騙集團靠深偽、暖心劇本把人騙得團團轉 經理人。
⭕️ 台積電聲明:張忠謀夫婦.魏哲家均未經營FB臉書
近日網路詐騙層出不窮,台積電董事長暨總裁魏哲家,以及創辦人張忠謀博士與夫人張淑芬女士,都曾遭冒名在社群平台刊登贈書或理財廣告。台積電近期發出官方聲明強調,上述人士均未經營任何公開社群帳號,亦未舉辦相關活動,呼籲民眾提高警覺,切勿受騙。
⭕️ 兩位AI 假縣長遭深偽影片假冒代言農產品
苗栗縣長鍾東錦遭深偽影片假冒代言「假油甘果」商品,境外帳號大量投放廣告。
彰化縣長王惠美也被冒名推薦「苦蕎茶」。
⭕️ 醫療肺癌名醫/全台最難掛的骨科名醫都遭冒名詐騙
醫療領域成為深偽影片的高風險標靶:
肺癌名醫陳晉興遭假冒販售「神奇肺藥」
假冠名影片流傳,將骨科名醫呂紹睿偽造成健康產品代言。
深偽換臉詐騙最愛盜用的四種身份
隨著視訊會議普及,詐騙手法也從簡訊提升到 假視訊:
- 嘴型與聲音同步
- 臉部表情自然
- 可對話、可要求動作
- 甚至能模擬真實背景與雜訊
這類詐騙最危險之處在於:受害者以為自己已「看到本人」,因此降低警覺。
深偽技術讓犯罪集團能精準模仿:
- 親友的臉孔與聲音
- 公司主管或財務長
- 公眾人物、政府官員
- 銀行或客服人員
◎延伸閱讀:聲音聽起來很像,Line的暱稱也對,就真的是家人嗎?
詐騙集團有時也會假扮成求職者。早在2022年美國聯邦調查局(FBI)就接獲不少雇主投訴,許多應徵遠端工作的求職者盜用他人資訊,還使用Deepfake影像進行線上面試,聯邦調查局發出警告騙徒Deepfake 假扮他人求職增加
這些深偽影片與視訊通話往往極度逼真,使企業與一般民眾皆可能受害。
辨識深偽視訊詐騙電話的五個防範祕訣
在生成式 AI 爆發的時代,個人與企業都需要掌握「日常可用」且「技術門檻低」的防範方法。
- 即時警覺四狀況
當你遇到以下情況,應立即提高警覺:
- ❌ 熟人突然用視訊「急」著要錢
- ❌ 語氣不像、表情僵硬、嘴型不太對
- ❌ 背景光線或影像邊緣看起來不自然
- ❌ 有延遲、卡頓或奇怪聲音斷點
2.一旦產生懷疑要立刻做這四件事
- ✔ 用通關密碼確認身份: 詢問一些只有真正的對方才知道答案的個人化問題,或提到一些從未發生過的事情來測試對方反應。
- ✔ 立即束視訊: 如果您感到任何不對勁,即使對方看起來、聽起來都很像您認識的人,請立即結束視訊通話。
- ✔ 更換通訊方式: 結束通話後,請使用另一種通訊方式(例如打一般電話)直接與對方聯繫,確認身份。
- ✔ 不提供金錢,不提供個資: 請特別小心對方突然要求借錢或索取個人資訊(如身份證號碼或銀行帳號)的情況。在未確認對方真實身份之前,絕對不要匯款或提供個人資訊。
3. 使用 AI 工具輔助檢測:AI防詐達人即時辨識是否有 AI 換臉,比人工判斷更精準
深偽影片肉眼難辨,因此需要技術輔助。
AI防詐達人 具備:
- 視訊換臉偵測
- 深偽風險警示
- 通話異常提醒
- 科技防護: 例如,趨勢科技推出的 AI防詐達人 具備「換臉詐騙偵測」功能,能在您進行視訊電話的同時,即時偵測是否有人正在使用 AI 換臉技術,並立即發出警告。
⭕️ 立即免費下載 不怕歹徒冒充熟人騙錢
可在你視訊通話時 即時辨識是否有 AI 換臉,比人工判斷更精準。

◎趨勢科技AI 防詐達人可及時提醒您視訊對象可能是假冒的
瞭解更多AI 防詐達人
☞ Android用戶請立即免費下載 ☞ iOS用戶請立即免費下載
4.減少社群過度曝光四要素
請留意您分享到網路上的資訊,因為詐騙集團可能會蒐集這些資訊,用來建立更逼真的深偽內容,從而讓您上當。為降低被製作 Deepfake 換臉詐騙影片的風險:
- 1.少公開高解析度自拍
- 2.不要上傳大量說話影片
- 3.不透露行程、位置
- 4.避免社群開啟「公開」狀態
減少社群過度曝光隱私,就能減少被造假的機會。
5.與家人朋友互相提醒
尤其是長輩、企業新進員工、單獨居住者等族群:
- 教他們「視訊看到本人也可能是假」
- 教他們「永遠不要在線上被催匯款」
- 教他們「不要依賴單一通訊方式」
⭕️獨家!每週精選最火紅的詐騙與資安新聞,讓您隨時掌握資安警訊 不想成為下一個受害者嗎?立即訂閱,搶先一步防範







