讓阿湯哥真假難辨的 Deepfake 技術,是什麼?如何捍衛隱私?

視訊電話別亂接!眼見不一定真 揭詐團「AI變臉視訊」新手法  

不要再相信「眼見為憑」、「有圖有真相」了!
FBI發現有人用盜來的個資與Deepfake技術求職 ,也有詐騙集團利用AI變臉軟體一邊變臉一邊直播,類似的手法越來越猖獗,根據 三立新聞報導 ,女警還示範如何講話講著講著「瞬間變成你同學」  。

         

眼見不為憑!視訊電話也可假冒,AI 變臉視訊」詐騙新手法

來源:視訊電話別亂接!眼見不一定真 揭詐團「AI變臉視訊」新手法          三立新聞網

警方分析深偽技術,發現已有3類詐騙手法被應用:

一、電話詐騙:模仿親友聲音,詐騙金錢及個資。
2019 年 9 月出現 Deepfake 技術製作的一段語音來誘騙英國某高階經理將 243,000 美元匯到某個歹徒所開設的帳戶。根據受害企業的保險公司表示,歹徒在電話中假冒的聲音不僅能模仿被冒充者的聲音,還能模仿其說話的語調、斷句及腔調。

延伸閱讀:「媽,我被綁架了!」小心你上傳的短影片, 3秒就被AI 做成「分聲」詐騙你媽

二、視訊詐騙:DeepFake 深偽技術可合成影片及語音,甚至發展成視訊詐騙,除了政治人物,名人也是仿冒的對象,比如馬斯克和幣安執行長都曾遭冒用推銷詐騙加密貨幣。



◎瞭解更多 趨勢科技AI 防詐達人
Android用戶請立即免費下載iOS用戶請立即免費下載

2023年五月某科技公司郭姓老闆接了一通好友的視訊電話, 10分鐘蒸發1873萬,原來好友的影像竟然就是AI合成。


三、恐嚇詐騙:移花接木合成不雅照片,恐嚇勒索當事人。台灣知名的 26歲百萬 YouTuber 小玉自曝「花150人民幣」買軟體「只花30分鐘和一個配音員」就可以讓肖像被盜對象講出任何他想要對方講的話」, 他非法利用DeepFake 犯罪工具,將包含黃捷、鄭家純(雞排妹)、高嘉瑜、龍龍等名人的臉合成在A片女優身上,移花接木的性愛影片,造成百人受害,不法所得逾新台幣上千萬元。

繼續閱讀

生物辨識將可能成為元宇宙的資安罩門

趨勢科技研究點出暗藏在便利的登入技術中所存在的資安風險


【2022 年 10月 27日台北訊】 全球網路資安領導廠商趨勢科技 (東京證券交易所股票代碼:4704) 近日發布一份最新報告,警告生物特徵資料外洩問題可能會為社群、線上遊戲及元宇宙等各種數位情境帶來嚴重的認證風險。

「一朝外洩,一輩子蒙受其害:社群媒體生物特徵資料如何影響未來生活」(Leaked Today, Exploited for Life: How Social Media Biometric Patterns Affect Your Future) 完整報告

趨勢科技基礎架構策略副總裁 Bill Malik 指出:「生物辨識技術被某些人推崇為比密碼辨識還安全且更容易使用的替代方案。然而,在我們身上的生物特徵卻不像密碼那樣可以輕易變更,因此若萬一遭到外洩,將有很大的可能對使用者帶來深遠影響。未來,盜用他人的元宇宙使用者個人檔案,便會如同今日可盜用並完全掌控他人的個人電腦一樣。」

繼續閱讀

地下組織如何使用被盜身份和 Deepfake 深偽技術?

越來越多的深偽技術(Deepfake)攻擊正顯著地在改變威脅環境。這些移花接木影片將變臉詐騙攻擊和身份驗證繞過等攻擊提升到了新的境界。它們可能盜用名人圖像改造影片,用來投放汽車廣告、宣傳“理財投資機會”,甚至冒充知名人士時進行視訊通話。

在2020年,趨勢科技與歐洲刑警組織和聯合國區域犯罪和司法研究院(UNICRI)的聯合報告裡概述了人工智慧技術的惡意使用,並預測了網路犯罪分子對深偽技術的濫用。而我們的預測也很快變成了現實 – 我們已經可以看到相關攻擊的出現。

越來越多的深偽技術攻擊正顯著地改變針對企業、金融機構、名人、政治人物甚至普通民眾的威脅環境。深偽技術的使用將變臉詐騙攻擊或稱為商務電子郵件入侵 (Business Email Compromise, BEC)和身份驗證繞過等攻擊提升到了新的境界。

這些攻擊成功的先決條件和原因如下:

  • 所有技術都已經到位。深偽技術的原始碼是公開的,任何想使用的人都可以拿到。
  • 公開可用影像的數量足以讓駭客利用深偽技術製作出數百萬個假身份。
  • 犯罪集團是此類技術的早期應用者,並且會定期討論用深偽技術來提高現有洗錢和貨幣化計劃的有效性。
  • 我們看到了新攻擊場景使用深偽技術的趨勢(如社交工程(social engineering )陷阱攻擊),深偽技術成為關鍵的技術推動力。

讓我們來看看近年來此一新興趨勢是如何發展和演變。

👉 趨勢科技在Computex 展出多項 AI資安相關技術 – Connecting AI Security, 6/4~6/7
⟫了解更多
繼續閱讀

眼見為憑?你親眼看到的未必是真的, Deepfake 惡意視訊假冒俄羅斯反對派人士

近日歐洲國會議員以為他們正在通過Zoom與俄羅斯反對派人員視訊交談,但後來發現是長相看起來一模一樣的個騙子!首次利用深偽技術(Deepfake)來進行惡意視訊可能已經出現……

deepfake

2017年 12月《神力女超人》(Wonder Woman)女主角蓋兒加朵(Gal Gadot) 的臉被移花接木到A片上,逼真度簡直毫無破綻。該段影片是以AI演算法產生,機器大量讀取蓋兒加朵(Gal Gadot)的影像後,複製出一張相似度極高的臉孔,再覆蓋A片女主角臉上。


華盛頓大學研究團隊2017年也發表一系列美國前總統歐巴馬的「造假」影片,當時該團隊僅分析17小時的歐巴馬演講影片就達到惟妙惟肖的成果。台灣總統大選期間,也有某候選人被惡搞。
現在甚至出現「換臉」軟體出,也讓深度偽造 (deepfake)惡搞影片愈來愈多。

趨勢科技在這幾年來一直在警告深偽技術(Deepfake)的技術日趨成熟。它利用AI技術製作聲音和影像來欺騙使用者相信它是真實的。

不幸的是,幾天前的事件顯示出此技術可能已經發展非常迅速,取得長足的進步。

四月底的一個例子讓我們知道此技術在短短幾年內取得了多大的進步。英國、拉脫維亞、愛沙尼亞、立陶宛和荷蘭等歐洲多國的議員,頻頻接到俄羅斯反對派領導人阿列克謝·納瓦尼(Alexei Navalny)的親密盟友兼參謀長列昂尼德·沃爾科夫(Leonid Volkov)的視訊通話。直到其中一位政治人物發出螢幕截圖指出該視訊可能是造假。(相關報導: 俄反對派遭人用Deepfake冒充)

繼續閱讀

從移花接木的 Deepfake 影音,看機器學習與網路攻擊

換臉、控制嘴唇,植入假造的音源檔,流傳在網路上萬個造假影片,用 #Deepfake #深偽技術 製造的。如果你的老闆在 Youtube 上有很多影音,得當心被利用了
這項技術已被網路犯罪集團用來圖利,已出現的案例是模仿大老闆的聲音,語調、斷句及腔調,進行語音網路釣魚,騙走 24.3 萬美金。😰

本文說明幾種運用機器學習技術的駭客概念驗證與真實攻擊案例來說明當前機器學習在網路威脅領域的應用現況與未來可能性。

資安廠商正運用機器學習(Machine learning,ML)技術來改善其威脅偵測能力,協助企業強化惡意程式、漏洞攻擊、網路釣魚郵件、甚至未知威脅的防禦能力。Capgemini Research Institute 針對機器學習在資安上的應用做了一份研究,他們發現在所有受訪的 10 個國家 850 位資深高階經理當中,約有 20% 在 2019 年之前便已開始運用機器學習技術,另有 60% 將在 2019 年底前開始採用。

機器學習在網路資安領域的應用已證明相當有效,更別說在其他眾多產業也獲得了相當的成果。不過這項技術卻也存在著被犯罪集團吸收利用的風險。儘管機器學習變成大規模犯罪武器的可能性似乎還很遙遠,但有關這方面的研究,尤其是利Deepfake 深度偽造技術來從事勒索或散布假訊息,近來在 IT 業界與一般大眾之間已掀起了一波熱議。

為了進一步說明當前機器學習在網路威脅領域的應用現況與未來可能性,以下說明近幾年來一些運用機器學習技術的駭客概念驗證與真實攻擊案例:

繼續閱讀