讓阿湯哥真假難辨的 Deepfake 技術,是什麼?如何捍衛隱私?

視訊電話別亂接!眼見不一定真 揭詐團「AI變臉視訊」新手法  

不要再相信「眼見為憑」、「有圖有真相」了!
FBI發現有人用盜來的個資與Deepfake技術求職 ,也有詐騙集團利用AI變臉軟體一邊變臉一邊直播,類似的手法越來越猖獗,根據 三立新聞報導 ,女警還示範如何講話講著講著「瞬間變成你同學」  。

         

眼見不為憑!視訊電話也可假冒,AI 變臉視訊」詐騙新手法

來源:視訊電話別亂接!眼見不一定真 揭詐團「AI變臉視訊」新手法          三立新聞網

警方分析深偽技術,發現已有3類詐騙手法被應用:

一、電話詐騙:模仿親友聲音,詐騙金錢及個資。
2019 年 9 月出現 Deepfake 技術製作的一段語音來誘騙英國某高階經理將 243,000 美元匯到某個歹徒所開設的帳戶。根據受害企業的保險公司表示,歹徒在電話中假冒的聲音不僅能模仿被冒充者的聲音,還能模仿其說話的語調、斷句及腔調。

延伸閱讀:「媽,我被綁架了!」小心你上傳的短影片, 3秒就被AI 做成「分聲」詐騙你媽

二、視訊詐騙:DeepFake 深偽技術可合成影片及語音,甚至發展成視訊詐騙,除了政治人物,名人也是仿冒的對象,比如馬斯克和幣安執行長都曾遭冒用推銷詐騙加密貨幣。



◎瞭解更多 趨勢科技AI 防詐達人
Android用戶請立即免費下載iOS用戶請立即免費下載

2023年五月某科技公司郭姓老闆接了一通好友的視訊電話, 10分鐘蒸發1873萬,原來好友的影像竟然就是AI合成。


三、恐嚇詐騙:移花接木合成不雅照片,恐嚇勒索當事人。台灣知名的 26歲百萬 YouTuber 小玉自曝「花150人民幣」買軟體「只花30分鐘和一個配音員」就可以讓肖像被盜對象講出任何他想要對方講的話」, 他非法利用DeepFake 犯罪工具,將包含黃捷、鄭家純(雞排妹)、高嘉瑜、龍龍等名人的臉合成在A片女優身上,移花接木的性愛影片,造成百人受害,不法所得逾新台幣上千萬元。

繼續閱讀

回顧這一年 ChatGPT 從 GPT-3 學到了什麼

在 2022 年 11 月開始掀起的喧囂與評論聲浪中,我們檢視了 OpenAI 的 ChatGPT 對網路資安產業將帶來的可能性與影響,並且拿它與先前的產品 (如 GPT-3) 做一番比較。

自從一年多前 GTP-3 在全球造成轟動開始,我們就仔細研究了這項 AI 技術,並分析它為網路犯罪產業帶來了什麼能力與潛力。這些討論都收錄在我們的「Codex Exposed」系列部落格文章中,該系列特別從資安的角度來探討幾個最重要的技術面向:

  1. 蒐集敏感資料:本文試圖揭露當使用者利用這套語言模型來產生程式碼時,可能看到哪些隱藏在訓練用原始程式碼中的敏感資料。
  2. 模仿遊戲:本文藉由測試 GPT Codex 產生與理解程式碼的能力極限,試圖從架構的角度了解該語言模型對電腦程式碼的理解程度如何。
  3. 工作自動化與輸出一致性:本文試圖利用 Codex 的 API 來撰寫程式看看它是否能在無人監督的情況下執行一些重複性工作。
  4. 幫忙訓練駭客:本文探討及分析利用大型語言模型來協助訓練及支援新手駭客的可能性。
繼續閱讀

雙面刃!AI 及 ML被拿來犯罪

本文探討今日人工智慧 (AI) 及機器學習(Machine learning,ML) 如何遭到不肖利用及濫用,並且提出一些網路犯罪集團未來如何利用這些技術來謀取不法獲利的可能情境。

趨勢科技、聯合國區域犯罪與司法研究院 (UNICRI) 以及歐洲刑警組織 (Europol)

人工智慧 (AI) 正促使全球快速邁向一個更充滿活力的世界。AI 是電腦科學底下一個與其他學門息息相關的子領域,蘊含著提升效率以及促進自動化與自主性的龐大潛力。簡而言之,AI 是第四次工業革命的核心技術,也是一把雙面刃。至於機器學習(Machine learning,ML) 則是 AI 底下的一個專門藉由大量資料分析與演算法來找尋模式和規律的子領域,可讓企業機構與政府機關實現一些重大計畫,最終將驅動創新並改善營運。


AI 及 ML 在商業領域的結合相當普遍,事實上,截至 2020 年為止,已有 37% 的企業和機構以某種形式將 AI 整合到他們的系統與流程當中。有了這類技術的工具,企業就能更準確地預測客戶的購買行為,進而增加營收。某些企業在 ML 與 AI 工具的協助下,創造了驚人的業務,Amazon 即是一例,該公司 2018 年的市值已經達到一兆美元。

儘管 AI 和 ML 扮演了企業、關鍵基礎建設以及各種產業的重要支柱,並且協助人類因應一些重大的挑戰 (如 Covid-19 疫情),但這些技術卻也讓各式各樣的數位、實體以及政治威脅浮上檯面。企業機構及一般個人若想確保自身安全、防範 AI 技術遭不肖之徒利用或濫用,就必須學習認識並了解 AI 系統遭惡意濫用的風險。

由趨勢科技、聯合國區域犯罪與司法研究院 (UNICRI) 以及歐洲刑警組織 (Europol) 聯合製作的研究報告「人工智慧的不肖利用及濫用」(Malicious Uses and Abuses of Artificial Intelligence) 一文,不僅探討了當今 AI 與 ML 技術遭到不肖利用及濫用的現況,更提出了一些網路犯罪集團未來如何利用這些技術來謀取不法獲利的可能情境。

AI 與 ML 遭到不肖利用及濫用的現況


AI 與 ML系統對企業來說不可或缺的一些功能,例如藉由大數據分析來自動產生預測並發掘一些不斷出現的模式和規律,剛好就是網路犯罪集團用來謀取不法獲利的功能。

繼續閱讀

從移花接木的 Deepfake 影音,看機器學習與網路攻擊

換臉、控制嘴唇,植入假造的音源檔,流傳在網路上萬個造假影片,用 #Deepfake #深偽技術 製造的。如果你的老闆在 Youtube 上有很多影音,得當心被利用了
這項技術已被網路犯罪集團用來圖利,已出現的案例是模仿大老闆的聲音,語調、斷句及腔調,進行語音網路釣魚,騙走 24.3 萬美金。😰

本文說明幾種運用機器學習技術的駭客概念驗證與真實攻擊案例來說明當前機器學習在網路威脅領域的應用現況與未來可能性。

資安廠商正運用機器學習(Machine learning,ML)技術來改善其威脅偵測能力,協助企業強化惡意程式、漏洞攻擊、網路釣魚郵件、甚至未知威脅的防禦能力。Capgemini Research Institute 針對機器學習在資安上的應用做了一份研究,他們發現在所有受訪的 10 個國家 850 位資深高階經理當中,約有 20% 在 2019 年之前便已開始運用機器學習技術,另有 60% 將在 2019 年底前開始採用。

機器學習在網路資安領域的應用已證明相當有效,更別說在其他眾多產業也獲得了相當的成果。不過這項技術卻也存在著被犯罪集團吸收利用的風險。儘管機器學習變成大規模犯罪武器的可能性似乎還很遙遠,但有關這方面的研究,尤其是利Deepfake 深度偽造技術來從事勒索或散布假訊息,近來在 IT 業界與一般大眾之間已掀起了一波熱議。

為了進一步說明當前機器學習在網路威脅領域的應用現況與未來可能性,以下說明近幾年來一些運用機器學習技術的駭客概念驗證與真實攻擊案例:

繼續閱讀

利用預判式機器學習技術交叉關聯靜態與動態行為特徵,實現更快、更精準的惡意程式偵測

趨勢科技已開發出一種名為「TrendX Hybrid Model」的機器學習模型,採用前置訓練與訓練兩個階段來交叉關聯靜態與動態行為特徵,進而提升偵測率並減少誤判。

利用預判式機器學習技術交叉關聯靜態與動態行為特徵,實現更快、更精準的惡意程式偵測

數十年前,早在機器學習(Machine learning,ML)還未開始成為熱門話題之前,該技術就已證明能夠從大量的資訊當中找出一些非顯而易見的模式,並可對資料進行分類與叢集,還可經由一些演算法來提供預測。機器學習在現實生活中的應用極廣,其中最重要的領域之一就是網路資安,它可讓傳統網路資安解決方案更能有效偵測一些破壞性威脅,例如勒索病毒Ransomware,不讓它們有機會進入系統,讓企業省下時間和金錢,並確保商譽。

傳統上,機器學習大多用來處理一些歷史資料。讓電腦從一些經過人工標記的資料當中推導出結論。在網路資安領域,機器學習模型可被訓練來辨識惡意檔案與惡意程式長什麼樣子,藉由交叉關聯方式來協助發掘一些全新、從未發現或尚未被分類的威脅。

為了進一步拓展機器學習在網路資安領域的應用,趨勢科技已開發出一套採用兩階段訓練的機器模型來提升偵測率並減少誤判。這套名為「TrendX Hybrid Model」的模型讓我們不僅能偵測惡意程式,最重要的是可以預測行為。

同時採用靜態與動態方法偵測惡意程式的優缺點

一般來說,資安領域的機器學習模型在判斷未知檔案為惡性或良性時有兩種方法:靜態分析與動態分析 (也就是行為分析)。

靜態分析


收到一封挾帶惡意執行檔的電子郵件。
繼續閱讀