AI一鍵脫衣,假裸照真勒索!想體驗AI脫衣魔法?當心反被勒索病毒扒光錢包

想像一下您接到一通視訊電話,但卻發現它是網路駭客製作的深偽視訊,而且幾可亂真。這樣的情境再也不是科幻小說的場景,而是今日數位領域正在快速演進的真實威脅。早在2020 年BBC 報導在社群媒體上有超過10萬名女性的照片遭人「AI一鍵脫衣」製作造假裸照散佈網路,更令人憂心這些照片被用來從事色情勒索。今年九月韓國也爆發大規模AI假裸照危機,據華爾街日報指出,受害者包括教師、軍官、大學生和小學生。而日前宣稱只要提供一張任何人的照片,就能生成出裸照的工具,也遭駭客利用,誘使下載後,植入勒索病毒等惡意程式。

趨勢科技的最新研究指出,深偽 (deepfake) 技術越來越容易取得,而且網路犯罪地下市場上的 AI 工具也越來越精密。這樣的演變,衍生出更多 AI 遭大規模濫用的機會,甚至讓不具備技術能力的網路犯罪分子也能輕鬆駕馭 AI 。

深偽工具氾濫,犯罪門檻降低,任何人都可能是受害者

在過去,這類變造手法的主要目標通常是名人,但現在,任何人,甚至未成年人或未經同意的成年人都可能成為受害者,尤其在社群媒體的持續擴散下。事實上,美國聯邦調查局 (FBI) 已發出警告指出深偽被用於性愛勒索與恐嚇犯罪所帶來的風險。網路犯罪地下市場上許多新的深偽工具都宣稱可以完美製作極為逼真的偽造影片和圖片。包括:

  • DeepNude Pro:這是一項 AI 脫衣犯罪服務,宣稱只要提供一張任何人的照片,就能生成出該人沒穿衣服的裸照,可用來從事色情勒索。

  • Deepfake 3D Pro:可從受害者的照片取出臉部來產生全合成的 3D 虛擬角色,虛擬角色可透過程式控制來發表預錄或生成的談話,為了讓虛擬分身看起來更加逼真,它的眼睛還會經常看著不同的方向,就像真人在講話時一樣。騙過銀行的 KYC 真人認證,或用來假冒名人從事詐騙或撥打網路釣魚電話。
  • Deepfake AI:可讓駭客將受害者的臉部移花接木到不堪的影片上來破壞受害者的名聲或用來勒索,也可用來散播假新聞。只支援預錄的影片。
  • SwapFace:可讓駭客偽造即時串流影音來從事變臉詐騙 (BEC) 攻擊或其他企業詐騙。
  • VideoCallSpoofer:與 SwapFace 類似,可從圖片產生逼真的 3D 虛擬角色,並且讓角色即時模仿演員的臉部動作。這可以讓深偽用於視訊會議電話以及類似的詐騙、假新聞等等的騙局。

SwapFace 與 Avatar AI VideoCallSpoofer 兩者都具備了即時的視訊換臉功能。因此可用來從事深偽視訊電話詐騙,就像 2024 年 2 月發生的案例一樣,受害的金融機構員工因為被深偽視訊電話所騙而匯款了 2,500 萬美元給歹徒。

繼續閱讀

⟪看梗圖學資安⟫跟汪星人視訊,狗狗認得出你嗎?

你今天好嗎?還再說「累得跟狗一樣嗎?」,兩個跟狗狗有關的日子就要到來:「826國際狗狗日(International Dog Day)」和「99台灣狗狗節」,本文用幾張狗狗迷因梗圖,看看到底你比較累還是狗狗比較累?出差時想念家中的萌寵時,你會跟狗狗視訊嗎?但你確定他認得出你嗎?(最後一張梗圖告訴你答案 (¬‿¬) )。
提到視訊,不得不提到近日升溫的AI詐騙案例,「新北多位里長遭AI換臉合成不雅片勒索,險害家庭革命」、「劉德華現身視訊?粉絲傻傻信,慘遭詐騙264萬」、「數百名AI生成的馬斯克分身用Deepfake換臉詐騙影片,讓退休老人被騙超過千萬!」,你我都可能成為下個受害者,該如何自我保護?

國際狗狗日,今天別再說累得跟狗一樣(•̀ᴗ•́)و ̑̑

台灣狗狗日的由來,原來跟台語有關

繼續閱讀

犯罪分子擁抱AI:LLM 與 Deepfake 成雙面刃

網路駭客濫用生成式 AI (GenAI) 的情況正在急速攀升,就在我們介紹了 Gen AI 如何被用於網路犯罪的短短幾個禮拜之後,隨即又出現了新的重大進展。駭客正在大量推出各種犯罪用大型語言模型 (LLM) 以及Deepfake(深偽技術),不僅數量更多、範圍也更廣。

網路駭客濫用生成式 AI (GenAI) 的狀況正在急速攀升,就在我們介紹了  Gen AI 如何被用於網路犯罪的短短幾個禮拜之後,隨即又出現了新的重大進展。駭客正在大量推出各種犯罪用大型語言模型 (LLM) 以及Deepfake(深偽技術)視訊詐騙,不僅數量更多、範圍也更廣。

以下是有關這項議題的最新發展。

繼續閱讀