視訊電話別亂接!眼見不一定真 揭詐團「AI變臉視訊」新手法
不要再相信「眼見為憑」、「有圖有真相」了!
FBI發現有人用盜來的個資與Deepfake技術求職 ,也有詐騙集團利用AI變臉軟體一邊變臉一邊直播,類似的手法越來越猖獗,根據 三立新聞報導 ,女警還示範如何講話講著講著「瞬間變成你同學」 。

來源:視訊電話別亂接!眼見不一定真 揭詐團「AI變臉視訊」新手法 三立新聞網
警方分析深偽技術,發現已有3類詐騙手法被應用:
一、電話詐騙:模仿親友聲音,詐騙金錢及個資。
2019 年 9 月出現 Deepfake 技術製作的一段語音來誘騙英國某高階經理將 243,000 美元匯到某個歹徒所開設的帳戶。根據受害企業的保險公司表示,歹徒在電話中假冒的聲音不僅能模仿被冒充者的聲音,還能模仿其說話的語調、斷句及腔調。
延伸閱讀:「媽,我被綁架了!」小心你上傳的短影片, 3秒就被AI 做成「分聲」詐騙你媽
二、視訊詐騙:DeepFake 深偽技術可合成影片及語音,甚至發展成視訊詐騙,除了政治人物,名人也是仿冒的對象,比如馬斯克和幣安執行長都曾遭冒用推銷詐騙加密貨幣。

◎瞭解更多 趨勢科技AI 防詐達人
☞ Android用戶請立即免費下載 ☞ iOS用戶請立即免費下載
2023年五月某科技公司郭姓老闆接了一通好友的視訊電話, 10分鐘蒸發1873萬,原來好友的影像竟然就是AI合成。
三、恐嚇詐騙:移花接木合成不雅照片,恐嚇勒索當事人。台灣知名的 26歲百萬 YouTuber 小玉自曝「花150人民幣」買軟體「只花30分鐘和一個配音員」就可以讓肖像被盜對象講出任何他想要對方講的話」, 他非法利用DeepFake 犯罪工具,將包含黃捷、鄭家純(雞排妹)、高嘉瑜、龍龍等名人的臉合成在A片女優身上,移花接木的性愛影片,造成百人受害,不法所得逾新台幣上千萬元。