本文概略介紹虛擬綁架的構成元素,以及駭客如何運用社交工程手法、AI 聲音模仿工具和 ChatGPT 來從事虛擬綁架。
新技術的發明通常是為了提高生產力、效率及改善我們的生活,例如人工智慧 (AI) 和機器學習 (ML),只可惜,網路駭客同樣也會想盡辦法利用這些技術來獲取不法利益。最近,駭客在攻擊和詐騙中使用了 AI 技術來逼真地模仿人類。
近來 AI 技術遭駭客利用的案例越來越多,本月稍早,美國聯邦調查局 (FBI) 才警告民眾要小心網路駭客利用深偽 (deepfake) 技術來篡改照片和影片以從事色情勒索,因為這類犯罪獲利驚人。根據美國聯邦貿易委員會 (FTC) 的數字,假冒身分的詐騙是 2022 年通報損失第二高的詐騙,高達 26 億美元。
這類假冒身分的詐騙使用了 AI 生成的偽造音檔 (也就是深偽語音),通常駭客只需從公開來源內容當中擷取少量的個人特徵資訊就能生成這類音檔,這些來源包括:TikTok、Facebook、Instagram、其他平台以及政府的入口網站。駭客可利用像 VoiceLab 這樣的 AI 工具來擷取個人聲音的特徵,就能產生與本人非常相似的深偽語音 (又稱為「聲音模仿」),然後用於勒索、恐嚇與詐騙。
有能力製作深偽語音的駭客,會使用一段有人在哭泣、尖叫,或極度悲傷的現成對白作為輸入 (例如電影對白),然後用 AI 讓對白中的聲音聽起來好像某人小孩的聲音。接著,駭客就拿著這段深偽語音來向受害者證明其小孩在他們手裡,藉此逼迫受害者匯一大筆贖金給他們。
本文概略介紹虛擬綁架的構成元素,以及駭客如何運用社交工程手法、AI 聲音模仿工具和 ChatGPT 來從事虛擬綁架。
繼續閱讀