AI一鍵脫衣,假裸照真勒索!想體驗AI脫衣魔法?當心反被勒索病毒扒光錢包

想像一下您接到一通視訊電話,但卻發現它是網路駭客製作的深偽視訊,而且幾可亂真。這樣的情境再也不是科幻小說的場景,而是今日數位領域正在快速演進的真實威脅。早在2020 年BBC 報導在社群媒體上有超過10萬名女性的照片遭人「AI一鍵脫衣」製作造假裸照散佈網路,更令人憂心這些照片被用來從事色情勒索。今年九月韓國也爆發大規模AI假裸照危機,據華爾街日報指出,受害者包括教師、軍官、大學生和小學生。而日前宣稱只要提供一張任何人的照片,就能生成出裸照的工具,也遭駭客利用,誘使下載後,植入勒索病毒等惡意程式。

趨勢科技的最新研究指出,深偽 (deepfake) 技術越來越容易取得,而且網路犯罪地下市場上的 AI 工具也越來越精密。這樣的演變,衍生出更多 AI 遭大規模濫用的機會,甚至讓不具備技術能力的網路犯罪分子也能輕鬆駕馭 AI 。

深偽工具氾濫,犯罪門檻降低,任何人都可能是受害者

在過去,這類變造手法的主要目標通常是名人,但現在,任何人,甚至未成年人或未經同意的成年人都可能成為受害者,尤其在社群媒體的持續擴散下。事實上,美國聯邦調查局 (FBI) 已發出警告指出深偽被用於性愛勒索與恐嚇犯罪所帶來的風險。網路犯罪地下市場上許多新的深偽工具都宣稱可以完美製作極為逼真的偽造影片和圖片。包括:

  • DeepNude Pro:這是一項 AI 脫衣犯罪服務,宣稱只要提供一張任何人的照片,就能生成出該人沒穿衣服的裸照,可用來從事色情勒索。

  • Deepfake 3D Pro:可從受害者的照片取出臉部來產生全合成的 3D 虛擬角色,虛擬角色可透過程式控制來發表預錄或生成的談話,為了讓虛擬分身看起來更加逼真,它的眼睛還會經常看著不同的方向,就像真人在講話時一樣。騙過銀行的 KYC 真人認證,或用來假冒名人從事詐騙或撥打網路釣魚電話。
  • Deepfake AI:可讓駭客將受害者的臉部移花接木到不堪的影片上來破壞受害者的名聲或用來勒索,也可用來散播假新聞。只支援預錄的影片。
  • SwapFace:可讓駭客偽造即時串流影音來從事變臉詐騙 (BEC) 攻擊或其他企業詐騙。
  • VideoCallSpoofer:與 SwapFace 類似,可從圖片產生逼真的 3D 虛擬角色,並且讓角色即時模仿演員的臉部動作。這可以讓深偽用於視訊會議電話以及類似的詐騙、假新聞等等的騙局。

SwapFace 與 Avatar AI VideoCallSpoofer 兩者都具備了即時的視訊換臉功能。因此可用來從事深偽視訊電話詐騙,就像 2024 年 2 月發生的案例一樣,受害的金融機構員工因為被深偽視訊電話所騙而匯款了 2,500 萬美元給歹徒。

繼續閱讀

犯罪分子擁抱AI:LLM 與 Deepfake 成雙面刃

網路駭客濫用生成式 AI (GenAI) 的情況正在急速攀升,就在我們介紹了 Gen AI 如何被用於網路犯罪的短短幾個禮拜之後,隨即又出現了新的重大進展。駭客正在大量推出各種犯罪用大型語言模型 (LLM) 以及Deepfake(深偽技術),不僅數量更多、範圍也更廣。

網路駭客濫用生成式 AI (GenAI) 的狀況正在急速攀升,就在我們介紹了  Gen AI 如何被用於網路犯罪的短短幾個禮拜之後,隨即又出現了新的重大進展。駭客正在大量推出各種犯罪用大型語言模型 (LLM) 以及Deepfake(深偽技術)視訊詐騙,不僅數量更多、範圍也更廣。

以下是有關這項議題的最新發展。

繼續閱讀

回顧 AI 風潮:網路駭客使用生成式 AI 的最新發展

生成式 AI 遭不肖分子誤用及濫用的情況依然不斷,本文將深入討論最新的犯罪用大型語言模型 (LLM)、類 ChatGPT 犯罪服務,以及犯罪網站上提供的深偽 (deepfake) 服務。

主要重點

  • 駭客集團導入 AI 技術的速度似乎落後產業界,這跟網路犯罪手法不斷演變的特性有關。
  • 相較於去年,駭客集團似乎已放棄訓練任何真正犯罪用的大型語言模型 (LLM),反而是改挾持現成可用的 LLM。
  • 我們終於看到實際的深偽服務出現,有些還能騙過金融服務業的用戶驗證。
繼續閱讀

虛擬綁架:AI變身詐騙幫手!聲紋仿冒、ChatGPT助長網路犯罪

本文概略介紹虛擬綁架的構成元素,以及駭客如何運用社交工程手法、AI 聲音模仿工具和 ChatGPT 來從事虛擬綁架。

新技術的發明通常是為了提高生產力、效率及改善我們的生活,例如人工智慧 (AI) 和機器學習 (ML),只可惜,網路駭客同樣也會想盡辦法利用這些技術來獲取不法利益。最近,駭客在攻擊和詐騙中使用了 AI 技術來逼真地模仿人類。

近來 AI 技術遭駭客利用的案例越來越多,本月稍早,美國聯邦調查局 (FBI) 才警告民眾要小心網路駭客利用深偽 (deepfake) 技術來篡改照片和影片以從事色情勒索,因為這類犯罪獲利驚人。根據美國聯邦貿易委員會 (FTC) 的數字,假冒身分的詐騙是 2022 年通報損失第二高的詐騙,高達 26 億美元

這類假冒身分的詐騙使用了 AI 生成的偽造音檔 (也就是深偽語音),通常駭客只需從公開來源內容當中擷取少量的個人特徵資訊就能生成這類音檔,這些來源包括:TikTok、Facebook、Instagram、其他平台以及政府的入口網站。駭客可利用像 VoiceLab 這樣的 AI 工具來擷取個人聲音的特徵,就能產生與本人非常相似的深偽語音 (又稱為「聲音模仿」),然後用於勒索、恐嚇與詐騙。

有能力製作深偽語音的駭客,會使用一段有人在哭泣、尖叫,或極度悲傷的現成對白作為輸入 (例如電影對白),然後用 AI 讓對白中的聲音聽起來好像某人小孩的聲音。接著,駭客就拿著這段深偽語音來向受害者證明其小孩在他們手裡,藉此逼迫受害者匯一大筆贖金給他們。

本文概略介紹虛擬綁架的構成元素,以及駭客如何運用社交工程手法、AI 聲音模仿工具和 ChatGPT 來從事虛擬綁架。

繼續閱讀