兒子來電聲稱手機壞掉,要重新加LINE?七旬老翁急匯款 38 萬,險遭AI詐騙

新北市一名男子接到自稱是兒子的來電,表示手機壞掉需要重新加LINE好友,男子不疑有他便照做,並依指示匯款38萬元給對方。幸好,銀行行員機警察覺有異,及時攔阻了這場AI人聲詐騙。
根據台視新聞報導 ,新北市一名男子日前前往銀行準備匯款給兒子時向行員表示,兒子要買電腦設備急用錢。不過,行員在核對匯款資料時,發現兩人是在幾天前才剛加好友。

圖片截圖來源:台視


行員覺得情況有異,懷疑這是一場詐騙。隨即聯絡警方到場,經警方調查後發現,男子的兒子根本沒有打電話給他,而是一名詐騙集團利用AI技術模擬人聲,冒充男子的兒子行騙。
警方表示,詐騙集團近年來經常利用AI技術進行詐騙,手法十分逼真,民眾應提高警覺,不要輕易相信陌生人的來電或訊息,如有任何疑慮,應主動向警方或銀行查證。

無獨有偶,2024年四月高雄一名79歲男子日前接到一通自稱是他姪子的來電,對方表示換了新電話,並想借錢投資。男子一聽聲音確實像自己的姪子,便前往銀行匯款。不料,姪子收到錢後又來電要求再借一筆。男子再次前往銀行匯款時,行員察覺有異,立即通報員警。經調查後證實,這是一個詐騙集團利用AI技術仿冒姪子聲音,企圖詐取長輩的錢財。


◎趨勢科技AI 防詐達人可及時提醒您視訊對象可能是假冒的
瞭解更多AI 防詐達人
Android用戶請立即免費下載iOS用戶請立即免費下載


「媽,我被綁架了!」小心你上傳的短影片, 3秒就被AI 做成「分聲」詐騙你媽

電影《捍衛戰士》第二集中飾演冰人的方基墨因為罹患喉癌而幾乎無法開口講話,片中的對話台詞其實是藉由AI模擬出的對話台詞。

知名美劇《黑鏡(Black Mirror)》中,主角藉著已經過世丈夫生前在社群媒體上的貼文,而由 AI 生成宛若重生的亡夫語氣跟主角互動。而這場景,也被專家預測有實現的可能。

最令人憂心的是,詐騙集團利用AI語音複製/AI仿聲術,進行相似度高達九成的電話語音詐騙。

近年來,科技的進步讓電腦複製人類語音達到了難以置信準確的程度。這項技術被稱為AI語音複製/AI仿聲術,並且已經有相當多實際的應用,但同時也催生了一種任何人都可以利用語音複製功能進行的新型詐騙, 柏克萊加州大學電腦科學教授 Hany Farid表示,這項詐騙成本每月只需五元。根據美國聯邦貿易委員會(FTC)統計資料顯示,去年美國人被AI 仿聲詐騙金額高達26億美元,平均一戶家庭被詐騙1萬1000美元。

詐騙者利用AI語音複製技術詐騙金錢或敏感資訊屢屢得逞。騙徒透過社交媒體搜尋獵物,以公開的個人資訊及影片檔案,製成可信度極高的語音詐騙,美國聯邦貿易委員會(Federal Trade Commission,縮寫:FTC警告,詐騙者利用 TikTok 帳戶或Instagram社群媒體上的短影音片段就可以在3 秒內輕易地建立「分聲」 ,然後利用這些連哭聲都一模ㄧ樣的聲音,向心急如焚的父母勒索大筆贖金。

繼續閱讀

AI PC時代來臨!仍有超過半數人擔憂AI資安問題

趨勢科技提醒AI App及AI惡意內容防護為AI資安防護要點 預計2024下半年推出消費性方案

【2024年5月23日,台北訊】生成式AI的應用與 AI PC 持續成長,全球網路資安領導廠商趨勢科技(東京證券交易所股票代碼:4704)今天公布消費性防護產品的未來規劃。為因應AI所帶來的機會與風險,趨勢科技將規劃策略以協助消費者安全地擁抱生成式AI以及相關應用,降低消費者使用AI或因AI遭到濫用而蒙受損害的風險。此外,趨勢科技也將針對自家防護產品及服務持續研發並利用AI創新,提升資安防護成效和效率。

儘管AI能為消費者帶來美好的未來,卻也助長駭客的詐騙成功率,比方說,利用AI讓網路釣魚郵件或深偽(Deepfake)影片更難分辨真偽。根據趨勢科技近期的一份研究調查註一,有近72%的受訪者表示他們對於AI能幫助提升工作品質並帶來更多嶄新機會而感到期待,但也有近65%的受訪者擔心AI可能散播錯誤資訊,另有58%對於AI將可能濫用圖片與肖像而感到憂心。不僅如此,AI應用程式本身也可能存在著漏洞,在缺乏適當的防護下,消費者很可能在不知情的狀況下被誤導或不經意地洩露個人隱私資訊。

👉 趨勢科技在Computex 展出多項 AI資安相關技術 – Connecting AI Security, 6/4~6/7

⟫了解更多

繼續閱讀

網路資安領域的 AI

圖片來源:iStock

人工智慧 (AI) 勢必在網路資安領域掀起一場革命,提升即時偵測及回應威脅的能力。AI 可藉由分析行為模式來發掘潛在威脅,並且能比傳統的方法更快判斷風險的優先次序,進而更快、更有效率地回應資安威脅。此外,採用 AI 技術的工具也在資料防護領域扮演了關鍵角色,提供進階功能來監控、分析及保護數位資產。請繼續往下閱讀來了解有關 AI 的更多資訊以及它在網路資安領域的應用。

AI 如何在網路資安領域掀起革命

AI 正徹底改變網路資安的運作方式,讓網路資安變得更有效、也更有效率。以下是 AI 正在改變遊戲規則的原因:

  • 改善威脅的偵測及回應:AI 能即時監控網路和系統,並且分析巨量的資料以快速而有效地偵測及回應威脅。
  • 分析行為模式:AI 能藉由分析使用者與系統的行為來發掘可能意味著資安威脅的異常情況,進而搶先駭客一步。
  • 判斷風險的優先次序並偵測惡意程式:AI 演算法可根據資安風險的嚴重性來判斷其優先次序,並藉由分析檔案的特性與行為模式來偵測惡意程式。
  • 將資安自動化:AI 可將例行性資安工作自動化,例如:威脅偵測與事件回應,讓網路資安人員專心處理其他工作。

AI 網路資安與傳統網路資安之間的差異


採用 AI 技術的網路資安能提供一種比傳統方法更主動、且更能適應威脅的方法。以下是兩者之間的一些主要差異:

  • 特徵式偵測:傳統網路資安仰賴特徵偵測技術來尋找惡意活動的已知特徵。然而,這樣的方法在偵測新式或演變中的威脅時卻效果有限。
  • 成為專業人員的助力:AI 能改善傳統網路資安,協助專業人員偵測及回應威脅。AI 演算法能分析巨量的資料,從中發掘能協助網路資安人員做出明智判斷的洞見。
  • 傳統網路資安的限制:傳統網路資安方法通常很難跟上威脅情勢快速演變的腳步,因為缺乏所需的彈性和適應能力來有效回應新興威脅。
  • 克服缺點:AI 提供了進階威脅偵測能力來克服傳統網路資安的缺點,即時偵測及回應威脅,因此有助於隨時搶先威脅一步。

AI 如何扭轉劣勢


未來,AI 必定在現代化網路資安領域扮演核心要角,協助資安人員扭轉面對網路駭客時的劣勢。採用 AI 技術的系統可快適應新的威脅,發掘惡意活動的徵兆,並且主動回應以防範風險。AI 能分析來自各種來源的大量資料 (例如網路流量記錄檔),從中發掘潛在的威脅以及網路攻擊的徵兆。正是這樣的能力,使得 AI 能偵測使用者行為或網路流量當中的異常狀況,這些狀況可能意味著系統正在遭到網路攻擊,或存在著漏洞。不僅如此,AI 還能將日常的網路資安作業自動化,讓資安團隊有更多時間聚焦在更複雜的威脅上,進而提升解決資安威脅的整體效率與回應時間。

整體而言,將 AI 整合至網路資安當中,是搶先威脅一步的關鍵,確保不論企業或個人都能獲得一個更安全的數位環境。


機器學習與深層神經網路


機器學習 (ML) 與深層神經網路 (DNN) 正在改變科技的運作方式。然而,這些技術到底是什麼?以及它們跟 AI 有何差別?請繼續閱讀以下說明。

  • 機器學習的定義:機器學習是 AI 的一環,可讓系統從資料當中學習而不需靠程式來控制。其重點在於開發可從經驗當中學習及改進的演算法。
  • 機器學習與 AI 的差別:AI 的目標是要創造可模擬人類智慧的機器,而機器學習則是 AI 當中一種專門開發演算法來從資料當中學習並做出決策的方法。
  • 深層神經網路:深層神經網路 (DNN) 是一種機器學習演算法,其靈感來自人類的大腦結構。DNN 當中包含多個彼此連接的資訊處理節點層,使得它們能夠辨認資料中的模式。
  • 神經網路演算法:這些是深度學習背後的數學模型,其設計是為了辨識資料中的模式,並根據資料做出決策,例如:「卷積神經網路」(Convolutional Neural Network,簡稱 CNN) 可用於影像辨識,「循環神經網路」(Recurrent Neural Network,簡稱 RNN) 可用於處理連續的資料,如文字和語音。

網路資安領域的 AI 有何風險?


儘管前途一片光明,但 AI 在網路資安領域仍處於早期發展階段,這意味著有許多潛在的風險和挑戰有待解決。其中一個疑慮就是誤判的問題,尤其當面對未知或持續演變的威脅時,AI 系統有可能誤將一些合法的活動判定為惡意活動,造成不必要的警報,並且可能影響系統效能。

另一項風險是駭客有可能將 AI 用於不良用途。隨著 AI 技術越來越容易取得,人們也開始擔心網路駭客集團會使用 AI 輔助工具來發動更精密且更具殺傷力的攻擊。這意味著,我們若要在 AI 領域隨時搶先不斷演變的威脅一步,就需要嚴密的資安措施與持續的研究。

繼續閱讀

AI 合成的泰勒絲要送粉絲鑄鐵鍋?!6 個值得注意的 AI 詐騙案例

去年,ChatGPT 捉弄了一名 IT 人員,讓該名人員以為 ChatGPT 是一位正在尋找助理工程師的人。AI 說:「不,我不是機器人,我是因為視力受損,所以才看不清楚影像。這就是為何我需要 2captcha 服務。」這名 IT 人員最後同意幫 AI 完成了 Captcha 驗證。OpenAI 表示這段互動證明了 AI 可能遭到濫用。

重點預覽

繼續閱讀

虛擬綁架:AI變身詐騙幫手!聲紋仿冒、ChatGPT助長網路犯罪

本文概略介紹虛擬綁架的構成元素,以及駭客如何運用社交工程手法、AI 聲音模仿工具和 ChatGPT 來從事虛擬綁架。

新技術的發明通常是為了提高生產力、效率及改善我們的生活,例如人工智慧 (AI) 和機器學習 (ML),只可惜,網路駭客同樣也會想盡辦法利用這些技術來獲取不法利益。最近,駭客在攻擊和詐騙中使用了 AI 技術來逼真地模仿人類。

近來 AI 技術遭駭客利用的案例越來越多,本月稍早,美國聯邦調查局 (FBI) 才警告民眾要小心網路駭客利用深偽 (deepfake) 技術來篡改照片和影片以從事色情勒索,因為這類犯罪獲利驚人。根據美國聯邦貿易委員會 (FTC) 的數字,假冒身分的詐騙是 2022 年通報損失第二高的詐騙,高達 26 億美元

這類假冒身分的詐騙使用了 AI 生成的偽造音檔 (也就是深偽語音),通常駭客只需從公開來源內容當中擷取少量的個人特徵資訊就能生成這類音檔,這些來源包括:TikTok、Facebook、Instagram、其他平台以及政府的入口網站。駭客可利用像 VoiceLab 這樣的 AI 工具來擷取個人聲音的特徵,就能產生與本人非常相似的深偽語音 (又稱為「聲音模仿」),然後用於勒索、恐嚇與詐騙。

有能力製作深偽語音的駭客,會使用一段有人在哭泣、尖叫,或極度悲傷的現成對白作為輸入 (例如電影對白),然後用 AI 讓對白中的聲音聽起來好像某人小孩的聲音。接著,駭客就拿著這段深偽語音來向受害者證明其小孩在他們手裡,藉此逼迫受害者匯一大筆贖金給他們。

本文概略介紹虛擬綁架的構成元素,以及駭客如何運用社交工程手法、AI 聲音模仿工具和 ChatGPT 來從事虛擬綁架。

繼續閱讀