趨勢科技推深偽偵測方案 助企業與消費者防範AI視訊詐騙

全新功能守護業務韌性與廣泛的AI應用

【2024年8月5日,台北訊】全球網路資安領導廠商趨勢科技(東京證券交易所股票代碼:4704) 發表企業資安平台與消費性網路資安產品中的創新功能,防範快速成長的AI攻擊與深偽(Deepfakes)詐騙,以保護所有網路環境。

請點選以下連結觀賞趨勢科技深偽偵測功能展示

趨勢科技研究報告指出,駭客正搭上AI應用爆炸性成長的熱潮,導致網路犯罪地下市場的AI犯罪工具暴增。這些工具不僅越來越便宜且更容易取得,使得任何技術能力的駭客都能更輕易地發動大規模攻擊,藉由欺騙受害者來從事勒索、身分冒用、詐騙以及散播假訊息。

趨勢科技營運長Kevin Simzer表示:「如同過去其他新興威脅與IT情勢的轉變一樣,我們早已預見並克服AI的資安挑戰。我們的最新研究披露了多項新的深偽工具,這些工具讓任何具備技術能力的網路駭客都能輕而易舉地從事詐騙取財、發動社交工程攻擊,以及避開資安防護。我們領先業界率先推出可偵測深偽與其他型態的AI詐騙的最新技術來保護我們的企業與消費性客戶。」

偵測與打擊這些AI犯罪手法是企業改善攻擊面風險管理以及降低消費者整體網路風險的核心。根據趨勢科技最近一項調查,71%的消費者對深偽抱持著負面觀感,並相信深偽的最大用途之一就是詐騙。

即將在Trend Vision One™平台全新推出的深偽偵測技術,運用多種進階方法來偵測AI生成內容。除了影像雜訊分析與色彩偵測等技術,Vision One平台還會分析使用者的行為元素來執行更強大的深偽偵測及攔截方法。在偵測的當下,趨勢科技便會立即通知企業資安團隊,讓他們有機會學習及獲得更新,並採取主動措施來防範未來的攻擊。

此外,該功能即日起也將經由Trend Micro Deepfake Inspector註一 提供給一般消費者使用,可協助確認即時視訊會議當中是否有人正在使用深偽技術,並提醒使用者其目前談話的對象可能有人是假的。

進一步了解並下載 Trend Micro Deepfake Inspector

繼續閱讀

什麼是 Character AI?這是人人都能安全使用的嗎?

您是不是也曾經在滑社群媒體時無意間看到令人驚豔的 AI  內容?AI 正悄悄地開始隨處出現在我們的日常生活當中。現在有一個名叫「Character AI」的平台,由 Noam Shazeer 和 Daniel De Freitas 在 2021 年所創立,它正透過活生生的 AI 人物,革命性改變數位互動的方式。那麼,什麼是 Character AI?Character AI 安全嗎?想知道答案就請繼續往下閱讀。

什麼是 Character AI?這是人人都能安全使用的嗎?
使用 Smartmockups 合成 Character AI 的情境圖。

什麼是 Character AI?

大家都聽過 AI,但什麼是「Character AI」呢?Character AI 是一種人工智慧的聊天機器人平台,讓使用者可以創建並與各種虛擬角色互動。這些角色可以是真實的人、虛構的人物,甚至是完全原創的形象。你可以和這些角色聊天、討論各種話題,甚至發展出獨特的關係。簡單來說,Character AI 就是讓您擁有屬於自己的虛擬好友,一個跟您聊天並回答您問題的對象,甚至幫您生成一些故事和對話之類的內容。您與科技的互動將更上層樓,您的裝置不止變得更酷,而且幾乎就像個數位隨從一般。

繼續閱讀

掌握雲端 GPU 的威脅情勢:10 種 GPU 攻擊的可能性和衝擊

人工智慧 (AI)、機器學習 (ML)、大型語言模型 (LLM) 以及高效能運算 (HPC) 技術的日益普及,使得繪圖處理器 (GPU) 的安全越來越需要獲得重視

人工智慧 (AI)、機器學習 (ML)、大型語言模型 (LLM) 以及高效能運算 (HPC) 等技術的日益普及,使得繪圖處理器 (GPU) 的安全越來越需要獲得重視。GPU 是專為平行運算而設計,可同時執行數以千計的簡單運算工作,它能加快 AI、ML、LLM 及 HPC 應用程式的運行。有鑑於 GPU 在各種商業應用上扮演的關鍵角色,例如 AI、ML、LLM 及 HPC 即仰賴雲端 GPU 系統來運作,企業有必要為 GPU 設置一些專門的防護措施。

我們的研究報告「雲端 GPU 威脅以及它對 AI、HPC 與雲端運算的衝擊調查」(A Survey of Cloud-Based GPU Threats and Their Impact on AI, HPC and Cloud Computing) 深入探討了當前 GPU 面臨的威脅環境,並提出一些資安建議來解決這些資安挑戰。

這張圖片的 alt 屬性值為空,它的檔案名稱為 WT%E5%B8%AD%E6%AC%A1%E5%80%92%E6%95%B8_1040x1040-1024x1024.jpg

隨著近年生成式AI技術發展,AI也成為駭客進行不法攻擊的幫手。企業須面對原本待解決的資安難題外,更陷入駭客社交工程攻擊手法更加快速及攻擊面不斷擴大的窘境。
趨勢科技將於Risk to Resilience「AI世代的資安風險管理」世界巡迴研討會中,說明新興風險管理策略以保持營運韌性。
➤ 把握最後席次,即刻報名 2024 Risk to Resilience World Tour
https://trend-tw.com/WorldTour2024_ownmedia/line0724-2/blog82658

繼續閱讀

你我都可能成為像素裡的人質!揭開 AI 名人換臉術與「AI 皮條客」的新型犯罪

Deepfake 罪犯眼中的「頂級獵物」不只是A咖 名人,當心公開影像被製作成AI深偽色情進行勒索

圖片來源:iStock

在這個AI技術爆炸性發展的時代,你很可能已經遇過這種驚心動魄的場景:當你悠閒地滑著社群媒體或漫遊於網際網路時,螢幕上突然跳出一段令人瞠目結舌的影片—赫然是那位你崇拜已久的巨星,正陷入一個尷尬至極的處境!

更令人咋舌的是,下一秒,你看到的可能是同一位名人,神采奕奕地代言著某款新產品,或是熱情洋溢地邀請你加入一個”千載難逢”的投資良機。影片中的一舉一動、一顰一笑,無不栩栩如生,彷彿那位偶像就在眼前,直接與你對話。

然而,當驚訝退去,理智漸漸回籠時,你內心泛起一絲異樣的感覺—這影片雖然真實得可怕,卻又微妙地透露出某種說不出的違和感。在AI主宰的數位叢林中,你正面臨著一個棘手的難題:眼見不一定為真,真相往往隱藏於細微之處。

什麼是 AI 名人深偽與 AI 色情 ?



那個令你目瞪口呆的場景嗎?那正是 AI 名人深偽(AI Celebrity Deepfakes)與 AI 色情(AI Porn)肆虐的寫照,一個充滿危機與隱憂的數位新世界。隨著 AI 深偽技術(Deepfake)的驚人進步,創作者們如今已能打造出逼真到匪夷所思的假影片和假照片。其中最令人不安的手法,就是將某人的「臉」巧妙地嫁接到另一人的「身體」上,彷彿那個人真的在做某件事,但實際上一切都是虛幻的幻象。

這項技術模糊了現實與虛構的界線,讓人難辨真偽。深偽技術初衷是為了娛樂,如製作電影特效,但如今已淪為不法之徒的工具。受害者遍及各階層,從光鮮亮麗的明星、呼風喚雨的企業執行長,到天真無邪的兒童,再到芸芸眾生的普通女性,所有人都可能成為這場數位暴力中的犧牲品,被強迫成為色情內容的主角。

繼續閱讀

兒子來電聲稱手機壞掉,要重新加LINE?七旬老翁急匯款 38 萬,險遭AI詐騙

新北市一名男子接到自稱是兒子的來電,表示手機壞掉需要重新加LINE好友,男子不疑有他便照做,並依指示匯款38萬元給對方。幸好,銀行行員機警察覺有異,及時攔阻了這場AI人聲詐騙。
根據台視新聞報導 ,新北市一名男子日前前往銀行準備匯款給兒子時向行員表示,兒子要買電腦設備急用錢。不過,行員在核對匯款資料時,發現兩人是在幾天前才剛加好友。

圖片截圖來源:台視


行員覺得情況有異,懷疑這是一場詐騙。隨即聯絡警方到場,經警方調查後發現,男子的兒子根本沒有打電話給他,而是一名詐騙集團利用AI技術模擬人聲,冒充男子的兒子行騙。
警方表示,詐騙集團近年來經常利用AI技術進行詐騙,手法十分逼真,民眾應提高警覺,不要輕易相信陌生人的來電或訊息,如有任何疑慮,應主動向警方或銀行查證。

無獨有偶,2024年四月高雄一名79歲男子日前接到一通自稱是他姪子的來電,對方表示換了新電話,並想借錢投資。男子一聽聲音確實像自己的姪子,便前往銀行匯款。不料,姪子收到錢後又來電要求再借一筆。男子再次前往銀行匯款時,行員察覺有異,立即通報員警。經調查後證實,這是一個詐騙集團利用AI技術仿冒姪子聲音,企圖詐取長輩的錢財。


◎趨勢科技AI 防詐達人可及時提醒您視訊對象可能是假冒的
瞭解更多AI 防詐達人
Android用戶請立即免費下載iOS用戶請立即免費下載


「媽,我被綁架了!」小心你上傳的短影片, 3秒就被AI 做成「分聲」詐騙你媽

電影《捍衛戰士》第二集中飾演冰人的方基墨因為罹患喉癌而幾乎無法開口講話,片中的對話台詞其實是藉由AI模擬出的對話台詞。

知名美劇《黑鏡(Black Mirror)》中,主角藉著已經過世丈夫生前在社群媒體上的貼文,而由 AI 生成宛若重生的亡夫語氣跟主角互動。而這場景,也被專家預測有實現的可能。

最令人憂心的是,詐騙集團利用AI語音複製/AI仿聲術,進行相似度高達九成的電話語音詐騙。

近年來,科技的進步讓電腦複製人類語音達到了難以置信準確的程度。這項技術被稱為AI語音複製/AI仿聲術,並且已經有相當多實際的應用,但同時也催生了一種任何人都可以利用語音複製功能進行的新型詐騙, 柏克萊加州大學電腦科學教授 Hany Farid表示,這項詐騙成本每月只需五元。根據美國聯邦貿易委員會(FTC)統計資料顯示,去年美國人被AI 仿聲詐騙金額高達26億美元,平均一戶家庭被詐騙1萬1000美元。

詐騙者利用AI語音複製技術詐騙金錢或敏感資訊屢屢得逞。騙徒透過社交媒體搜尋獵物,以公開的個人資訊及影片檔案,製成可信度極高的語音詐騙,美國聯邦貿易委員會(Federal Trade Commission,縮寫:FTC警告,詐騙者利用 TikTok 帳戶或Instagram社群媒體上的短影音片段就可以在3 秒內輕易地建立「分聲」 ,然後利用這些連哭聲都一模ㄧ樣的聲音,向心急如焚的父母勒索大筆贖金。

繼續閱讀