從移花接木的 Deepfake 影音,看機器學習與網路攻擊

換臉、控制嘴唇,植入假造的音源檔,流傳在網路上萬個造假影片,用 #Deepfake #深偽技術 製造的。如果你的老闆在 Youtube 上有很多影音,得當心被利用了
這項技術已被網路犯罪集團用來圖利,已出現的案例是模仿大老闆的聲音,語調、斷句及腔調,進行語音網路釣魚,騙走 24.3 萬美金。😰

本文說明幾種運用機器學習技術的駭客概念驗證與真實攻擊案例來說明當前機器學習在網路威脅領域的應用現況與未來可能性。

資安廠商正運用機器學習(Machine learning,ML)技術來改善其威脅偵測能力,協助企業強化惡意程式、漏洞攻擊、網路釣魚郵件、甚至未知威脅的防禦能力。Capgemini Research Institute 針對機器學習在資安上的應用做了一份研究,他們發現在所有受訪的 10 個國家 850 位資深高階經理當中,約有 20% 在 2019 年之前便已開始運用機器學習技術,另有 60% 將在 2019 年底前開始採用。

機器學習在網路資安領域的應用已證明相當有效,更別說在其他眾多產業也獲得了相當的成果。不過這項技術卻也存在著被犯罪集團吸收利用的風險。儘管機器學習變成大規模犯罪武器的可能性似乎還很遙遠,但有關這方面的研究,尤其是利Deepfake 深度偽造技術來從事勒索或散布假訊息,近來在 IT 業界與一般大眾之間已掀起了一波熱議。

為了進一步說明當前機器學習在網路威脅領域的應用現況與未來可能性,以下說明近幾年來一些運用機器學習技術的駭客概念驗證與真實攻擊案例:

採用機器學習技術的惡意應用程式

令人外地,有關惡意程式採用機器學習技術的研究目前仍相當稀少,儘管某些專家早已認為惡意程式是很可能具備這項進階能力的一種威脅。事實上,目前在這方面只看過一個公開發表的概念驗證攻擊,也就是 IBM 在 Black Hat USA 2018 駭客大會上發表的一個名為「DeepLocker」的惡意程式,據稱該程式可在一個良性的資料檔當中部署一個無法追查的惡意程式。該惡意程式採用名為「深層神經網路 (DNN)」的深層學習技術 (機器學習的一種),利用 DNN 來隱藏其可能被資安產品偵測的一些惡意檔案特徵。


DeepLocker 被設計成在遇到特定受害者之前都處於隱身的狀態。在展示過程中,我們可看到 DeepLocker 會一直暗中等待某個特定動作出現才觸發勒索病毒行為。這個觸發惡意行為的動作是目標受害者直接看著筆記型電腦網路攝影機的身體動作,而惡意程式碼當中也暗藏了一個網路攝影機操控程式。機器學習技術在此攻擊當中的應用還算有限,但已顯示出若惡意程式能結合機器學習技術,將變得非常隱匿且具針對性。


Deepfake 影音


越來越多的專家開始警告社會大眾注意 Deepfake 影片的問題,這是一種超逼真的視訊變臉技術。這項技術採用所謂的生成對抗網路 (GAN) 機器學習技術,可根據現有的影像資料庫產生新的影像。Deepfake 影片嚴重挑戰人眼辨別真偽的能力,讓我們對真假失去正常判斷。

deepfake


今天,Deepfake 技術大多被用於製作色情、政治宣傳或嘲諷影片。關於這類影片的衝擊,根據 Medium 在五月發表的一篇文章指出,目前網路上大約有 1 萬個 Deepfake 影片,其中以美國眾議院議長裴洛西 (Nancy Pelosi)好萊塢明星史嘉蕾喬韓森 (Scarlett Johansson) 兩位的偽造影片最多。

以下這部 GQ Taiwan 的影片,供大家參考:什麼是「深偽技術」(Deepfake)?而這項人工智慧,助力了假新聞增長!


至於這項技術是否可能讓網路犯罪集團用來圖利,據我們推測,Deepfake 可能被用於從事變臉詐騙攻擊或稱為商務電子郵件入侵 (Business Email Compromise”,簡稱 BEC)或執行長 (CEO) 詐騙。Deepfake 影片可變成一項很好的社交工程(social engineering)詐騙工具,讓受害者更容易上當。


不過第一起利用 Deepfake 技術的執行長詐騙卻是使用偽造語音的型態。一樁 2019 年 9 月發生的詐騙使用 Deepfake 技術製作的一段語音來誘騙英國某高階經理將 243,000 美元匯到某個歹徒所開設的帳戶。根據受害企業的保險公司表示,歹徒在電話中假冒的聲音不僅能模仿被冒充者的聲音,還能模仿其說話的語調、斷句及腔調。


密碼破解工具


暴力登入與社交工程是兩個歷史悠久但網路犯罪集團仍經常使用的帳號駭入與密碼竊取技巧。另有一種新的技巧是搭配運用使用者在社交媒體上分享的資訊來做為輔助,因為有些人會在帳號密碼中使用一些其公開分享的資訊。除此之外,機器學習在密碼破解上的應用,也是一個使用者和企業皆應密切關注的問題。


早在 2017 年就有一個名為 PassGAN 的程式能夠猜出一些不易猜測的密碼,證明機器學習技術確實可能遭歹徒用在密碼破解用途。美國紐澤西州 Stevens Institute of Technology 的專家利用一套擁有兩套機器學習系統的 GAN 再搭配該程式,就能猜出比 HashCat 和 John the Ripper 這兩個密碼破解工具更多的使用者密碼。


為了比較 PassGAN 和 HashCat 與 John the Ripper 的能力,開發人員將來自  2010 年 RockYou 資料外洩事件的 3,200 萬個密碼輸入該系統,藉此產生數百萬個新的密碼。接著,再用這些產生出來的密碼去破解來自 2016 年 LinkedIn 資料外洩事件的加密後密碼 (雜湊值) 清單。


結果,PassGAN 能夠破解 LinkedIn 資料外洩當中 12% 的密碼,而其他工具的破解率則在 6% 至 23% 之間。但如果能將 PassGAN 和 Hashcat 兩者結合,就能破解 LinkedIn 資料外洩事件當中 27% 的密碼。假使網路犯罪集團能夠發明一種類似這樣或更強的方法,那麼就有辦法更穩定可靠地破解使用者的密碼。


對抗式機器學習


對抗式機器學習 (adversarial machine learning) 是一種駭客可用來讓機器學習模型失靈的技巧。駭客可精心製作一些對抗樣本,將修改後的輸入資料餵給機器學習系統,使得它無法產生準確的預測。基本上,這項稱為「對抗式攻擊」的技巧會讓企業所用的機器學習系統變成對抗自己的敵人。


此方法已被證明能夠干擾資安防護所用的機器學習模型,例如造成較高的誤判率。駭客可故意注入一些很像良性檔案的惡意程式來汙染機器學習的訓練資料


此外,駭客還可利用已遭感染的良性 PE 執行檔或將良性的原始程式碼與惡意程式碼混在一起組譯,來欺騙資安防護所用的機器學習模型。這項技巧會讓機器學習模型誤以為這個惡意程式樣本是良性的,使得資安產品無法準確偵測該惡意程式樣本,因為其檔案結構本質上仍是由原始的良性檔案所組成。

訂閱資安趨勢電子報:


如何對付以機器學習技術發展出來的網路威脅?


想要偵測並攔截任何精密的資安威脅 (例如運用機器學習技術開發出來的威脅),首先第一步就是提升監控與資料分析能力。只要能提升網路與伺服器活動的監控追蹤能力,就算是精密或未知的威脅也將無所遁形,如此就能偵測進階威脅與運算平台的弱點,並迫使企業機構矯正這類弱點,建立更安全的 IT 環境。


在面對 PassGAN 這類採用機器學習技術的進階密碼破解工具時,使用者與企業可藉由雙重認證機制來降低對密碼的依賴。其中一種方式就是使用一次性密碼 (OTP),由系統自動產生一串僅用於本次登入的密碼。


目前,針對 Deepfake 的防護技術正在持續發展當中。為了對抗 Deepfake 影片,由美國五角大廈和 SRI International 的專家們所發起的一項計畫正在將真實影片與 Deepfake 影片的樣本送入電腦當中分析,藉此訓練電腦如何分辨偽造影片。為了偵測 Deepfake 音訊,專家正在訓練電腦利用視覺上的不一致性來加以判別。至於 Deepfake 影音可能入侵的平台,Facebook、Google、Amazon 和其他機構,正共同發起一項名為「DeepFake 偵測挑戰」(DeepFake Detection Challenge,簡稱 DFDC) 的計畫,邀請全球一起共同開發可偵測 Deepfake 和其他偽造影音內容的技術。


除此之外,對抗式攻擊也可從開發更完善的機器學習系統來防範。這可從兩方面下手:第一,從機器學習的設計階段開始便及早發現潛在的資安漏洞,並精確調校每一項參數;第二,產生一些對抗樣本來重新訓練機器學習模型,藉此提升機器學習系統的效率。再者,縮小機器學習系統的受攻擊面,也可減輕一些對抗式攻擊。既然網路犯罪集團會修改樣本來刺探資安防護的機器學習系統,那麼企業可採用趨勢科技的XGen安全防護技術這類雲端式解決方案來偵測及攔截這類惡意刺探行為。


不論政府機關或私人機構 (特別是網路資安廠商) 應預見到網路犯罪集團運用機器學習技術的新時代即將來臨。如往常一樣,網路犯罪集團會不斷開發更先進的新型態威脅來維持優勢。為此,相關的反制技術也必須不斷持續演進。雖然,建置一套量身訂做的技術來偵測諸如此類的威脅固然不錯,但採用一套多層式 (也就是融合多重技術) 的資安防禦,並且貫徹網路資安最佳實務原則,依然是防範各種廣泛威脅最有效的方法。


原文出處:Foreseeing a New Era: Cybercriminals Using Machine Learning to Create Highly Advanced Threats