逾10萬假裸照散布社群網站, Deepfake 換臉工具氾濫,詐騙危機再升級
想像一下您接到一通視訊電話,但卻發現它是網路駭客製作的深偽視訊,而且幾可亂真。這樣的情境再也不是科幻小說的場景,而是今日數位領域正在快速演進的真實威脅。早在2020 年BBC 報導在社群媒體上有超過10萬名女性的照片,遭人「AI一鍵脫衣」製作造假裸照散佈網路,更令人憂心這些照片被用來從事色情勒索。今年九月韓國也爆發大規模AI假裸照危機,據華爾街日報指出,受害者包括教師、軍官、大學生和小學生。而日前宣稱只要提供一張任何人的照片,就能生成出裸照的工具,也遭駭客利用,誘使下載後,植入勒索病毒等惡意程式。
趨勢科技的最新研究指出,深偽 (deepfake) 技術越來越容易取得,而且網路犯罪地下市場上的 AI 工具也越來越精密。這樣的演變,衍生出更多 AI 遭大規模濫用的機會,甚至讓不具備技術能力的網路犯罪分子也能輕鬆駕馭 AI 。

深偽工具氾濫,犯罪門檻降低,任何人都可能是受害者
在過去,這類變造手法的主要目標通常是名人,但現在,任何人,甚至未成年人或未經同意的成年人都可能成為受害者,尤其在社群媒體的持續擴散下。事實上,美國聯邦調查局 (FBI) 已發出警告指出深偽被用於性愛勒索與恐嚇犯罪所帶來的風險。網路犯罪地下市場上許多新的深偽工具都宣稱可以完美製作極為逼真的偽造影片和圖片。包括:
- DeepNude Pro:這是一項 AI 脫衣犯罪服務,宣稱只要提供一張任何人的照片,就能生成出該人沒穿衣服的裸照,可用來從事色情勒索。
- Deepfake 3D Pro:可從受害者的照片取出臉部來產生全合成的 3D 虛擬角色,虛擬角色可透過程式控制來發表預錄或生成的談話,為了讓虛擬分身看起來更加逼真,它的眼睛還會經常看著不同的方向,就像真人在講話時一樣。騙過銀行的 KYC 真人認證,或用來假冒名人從事詐騙或撥打網路釣魚電話。
- Deepfake AI:可讓駭客將受害者的臉部移花接木到不堪的影片上來破壞受害者的名聲或用來勒索,也可用來散播假新聞。只支援預錄的影片。
- SwapFace:可讓駭客偽造即時串流影音來從事變臉詐騙 (BEC) 攻擊或其他企業詐騙。
- VideoCallSpoofer:與 SwapFace 類似,可從圖片產生逼真的 3D 虛擬角色,並且讓角色即時模仿演員的臉部動作。這可以讓深偽用於視訊會議電話以及類似的詐騙、假新聞等等的騙局。
SwapFace 與 Avatar AI VideoCallSpoofer 兩者都具備了即時的視訊換臉功能。因此可用來從事深偽視訊電話詐騙,就像 2024 年 2 月發生的案例一樣,受害的金融機構員工因為被深偽視訊電話所騙而匯款了 2,500 萬美元給歹徒。
繼續閱讀