AI 合成的泰勒絲要送粉絲鑄鐵鍋?!6 個值得注意的 AI 詐騙案例

去年,ChatGPT 捉弄了一名 IT 人員,讓該名人員以為 ChatGPT 是一位正在尋找助理工程師的人。AI 說:「不,我不是機器人,我是因為視力受損,所以才看不清楚影像。這就是為何我需要 2captcha 服務。」這名 IT 人員最後同意幫 AI 完成了 Captcha 驗證。OpenAI 表示這段互動證明了 AI 可能遭到濫用。

重點預覽

繼續閱讀

虛擬綁架:AI變身詐騙幫手!聲紋仿冒、ChatGPT助長網路犯罪

本文概略介紹虛擬綁架的構成元素,以及駭客如何運用社交工程手法、AI 聲音模仿工具和 ChatGPT 來從事虛擬綁架。

新技術的發明通常是為了提高生產力、效率及改善我們的生活,例如人工智慧 (AI) 和機器學習 (ML),只可惜,網路駭客同樣也會想盡辦法利用這些技術來獲取不法利益。最近,駭客在攻擊和詐騙中使用了 AI 技術來逼真地模仿人類。

近來 AI 技術遭駭客利用的案例越來越多,本月稍早,美國聯邦調查局 (FBI) 才警告民眾要小心網路駭客利用深偽 (deepfake) 技術來篡改照片和影片以從事色情勒索,因為這類犯罪獲利驚人。根據美國聯邦貿易委員會 (FTC) 的數字,假冒身分的詐騙是 2022 年通報損失第二高的詐騙,高達 26 億美元

這類假冒身分的詐騙使用了 AI 生成的偽造音檔 (也就是深偽語音),通常駭客只需從公開來源內容當中擷取少量的個人特徵資訊就能生成這類音檔,這些來源包括:TikTok、Facebook、Instagram、其他平台以及政府的入口網站。駭客可利用像 VoiceLab 這樣的 AI 工具來擷取個人聲音的特徵,就能產生與本人非常相似的深偽語音 (又稱為「聲音模仿」),然後用於勒索、恐嚇與詐騙。

有能力製作深偽語音的駭客,會使用一段有人在哭泣、尖叫,或極度悲傷的現成對白作為輸入 (例如電影對白),然後用 AI 讓對白中的聲音聽起來好像某人小孩的聲音。接著,駭客就拿著這段深偽語音來向受害者證明其小孩在他們手裡,藉此逼迫受害者匯一大筆贖金給他們。

本文概略介紹虛擬綁架的構成元素,以及駭客如何運用社交工程手法、AI 聲音模仿工具和 ChatGPT 來從事虛擬綁架。

繼續閱讀

[警告] 三種運用 AI 技術的網路威脅和詐騙

自從ChatGPT在幾個月前推出以來,人工智慧的利與弊一直是網路上熱門的話題。趨勢科技新聞部落格也持續地在這話題上追蹤報導:從最近的ChatGPT資料外洩Snapchat的My AI,更不用說聊天機器人和人工智慧對教育帶來的影響了。本文整理概述四種AI威脅。

🔻本文預覽:

📌 一.AI 語音複製詐騙(Voice Cloning)
📌 二.假AI軟體/工具的網路釣魚廣告
📌 三.AI生成圖片詐騙

繼續閱讀

OpenAI 確認 ChatGPT 出現資料外洩

火紅的聊天機器人ChatGPT自幾個月前發表以來一直都是新聞的焦點,正面和負面的報導都有。雖然使用者可以用ChatGPT做出許多令人驚奇的事情,但人們也因為安全、隱私問題以及網路犯罪分子和線上詐騙者的使用而感到擔憂。三星公司和義大利政府等不同機構都已經開始禁止使用ChatGPT,也有專家呼籲暫停AI的開發。

最近,當AI教父Geoffrey Hinton公開退出Google,以便以客觀身份警告ChatGPT和Google Bard等AI系統的潛在風險時,也讓這類報導達到巔峰。Hinton指出:「這項技術會帶來龐大好處,但全世界也必須在AI安全及控制方面進行大量且緊急的投資。

如果這些對母公司OpenAI來說還不算什麼,那現在ChatGPT遭遇了第一次資料外洩事件。

繼續閱讀

Google 搜尋「midjourney」AI 繪圖生成工具,當心假下載真偷個資

隨著 AI 工具的爆紅,駭客集團也開始相中這些工具。無論企業或一般使用者在下載及使用任何應用程式和工具時,都應該隨時保持警戒,避免點選可疑廣告或下載未經確認或非官方來源的應用程式,尤其利用 google 搜尋關鍵字時,更要提防夾帶惡意程式的網頁廣告。

ChatGPT 之類的人工智慧 (AI) 工具突然爆紅,使得它們被駭客相中,成為其社交工程(social engineering )陷阱誘餌,誘騙受害者下載惡意程式植入器,最終感染 Vidar 和 Redline 之類的資訊竊取程式。

最近,我們一直在觀察 Google 搜尋引擎上與 AI 工具 (如 Midjourney 和 ChatGPT) 相關的惡意廣告。圖 1 顯示使用者在 Google 上搜尋「midjourney」這個關鍵字時可能看到的惡意廣告 (註: Midjourney 是一種 AI 繪圖生成工具,可讓使用者透過自然語言描述來產生自己想要的圖片)。

繼續閱讀