什麼是 Deepfake(深偽技術)? A 片女主角也可以造假!

Deepfake(深偽技術)指的是用人工智慧和機器學習(Machine learning,ML)(AI/ML)合成的媒體資訊(圖片、聲音、影像等),將無辜明星、政客等知名人物的臉孔和聲音合成進成人影片和宣傳訊息內。這種「影片換臉」的技術,不知情的人乍看之下就像以為被惡搞的受害者,真的參與了演出。這些假影片就稱為Deepfake(深偽技術)。

目前已經出現利用 Deepfake 技術的 CEO 詐騙, 2019 年 9 月出現 Deepfake 技術製作的一段語音來誘騙英國某高階經理將 243,000 美元匯到某個歹徒所開設的帳戶。根據受害企業的保險公司表示,歹徒在電話中假冒的聲音不僅能模仿被冒充者的聲音,還能模仿其說話的語調、斷句及腔調。

deepfake
截圖來源:「年代向錢看」 精彩片段》林宜敬:到處都是假新聞!【年代向錢看】

A 片女主角也可能造假!Deepfake(深偽技術)如何運作?


要製作深度偽造影片,這項技術會分別學習如何對兩張不同的臉進行編碼和解碼。舉例來說,一位著名人士舉行了公開演說,而另一個人談的卻是完全不同的爭議性內容,這項技術卻能破解並重建人臉,最終將影片與第二張臉合併。這樣一來,原本那位著名人士的臉看起來就像第二張臉。這項技術也可以用來把另一張臉疊加在特定人物臉上,就能創造深度偽造影片。


這項技術能針對聲音做出細微變化,進而改變整個影片的核心訊息。這項技術的確有正面的用途,像是用在電影產業,透過深度偽造技術省下重拍某些片段的麻煩。但它也已經被用在負面的情形,例如在未經許可的情況下,用名人的臉來製作成人色情內容。有鑑於此,人們憂心這項技術經常被用來影響選舉、衝擊市場、毀掉職業生涯,甚至產生更可怕的犯罪。

deepfake

那些名人影片被移花接木?

2017年 12月《神力女超人》(Wonder Woman)女主角蓋兒加朵(Gal Gadot) 的臉被移花接木到A片上,逼真度簡直毫無破綻。該段影片是以AI演算法產生,機器大量讀取蓋兒加朵(Gal Gadot)的影像後,複製出一張相似度極高的臉孔,再覆蓋A片女主角臉上。

華盛頓大學研究團隊2017年也發表一系列美國前總統歐巴馬的「造假」影片,當時該團隊僅分析17小時的歐巴馬演講影片就達到惟妙惟肖的成果。台灣總統大選期間,也有某候選人被惡搞。

現在甚至出現「換臉」軟體出,也讓深度偽造 (deepfake)惡搞影片愈來愈多。

台灣「年代向錢看」節目日前專訪了曾經在趨勢科技擔任研發部協理,目前為艾爾科技(MyET)執行長的林宜敬,談到處都是假新聞 !

林宜敬示範了一段以「換臉」軟體,製作蔣經國推薦該節目的影片,逼真的程度,讓人嘖嘖稱奇。

Deepfake 技術大多被用於製作色情、政治宣傳或嘲諷影片

2017年 12月《神力女超人》(Wonder Woman)女主角蓋兒加朵(Gal Gadot) 的臉被移花接木到A片上,逼真度簡直毫無破綻。該段影片是以AI演算法產生,機器大量讀取蓋兒加朵(Gal Gadot)的影像後,複製出一張相似度極高的臉孔,再覆蓋A片女主角臉上。

後來甚至出現特定的「換臉」軟體出,也讓deepfake惡搞影片愈來愈多。

以下即為尼可拉斯凱吉 (Nicolas Cage)被”換臉”的 Deepfake影片

越來越多的專家開始警告社會大眾注意 Deepfake 影片的問題,這是一種超逼真的視訊變臉技術。這項技術採用所謂的生成對抗網路 (GAN) 機器學習技術,可根據現有的影像資料庫產生新的影像。Deepfake 影片嚴重挑戰人眼辨別真偽的能力,讓我們對真假失去正常判斷。

第一起利用 Deepfake 技術的CEO 詐騙


Deepfake 技術大多被用於製作色情、政治宣傳或嘲諷影片。關於這類影片的衝擊,根據 Medium發表的一篇文章指出,目前網路上大約有 1 萬個 Deepfake 影片,其中以美國眾議院議長裴洛西 (Nancy Pelosi)好萊塢明星史嘉蕾喬韓森 (Scarlett Johansson) 兩位的偽造影片最多。


至於這項技術是否可能讓網路犯罪集團用來圖利,據我們推測,Deepfake 可能被用於從事變臉詐騙攻擊或稱為商務電子郵件入侵 (Business Email Compromise BEC)或執行長 (CEO) 詐騙。Deepfake 影片可變成一項很好的社交工程(social engineering)詐騙工具,讓受害者更容易上當。


不過第一起利用 Deepfake 技術的執行長詐騙卻是使用偽造語音的型態。一樁 2019 年 9 月發生的詐騙使用 Deepfake 技術製作的一段語音來誘騙英國某高階經理將 243,000 美元匯到某個歹徒所開設的帳戶。根據受害企業的保險公司表示,歹徒在電話中假冒的聲音不僅能模仿被冒充者的聲音,還能模仿其說話的語調、斷句及腔調。

YouTube 和 Twitter 如何打擊Deepfake ?


Youtube在其現行社群準則內的垃圾郵件、欺詐行為和詐騙政策裡就有禁止變造媒體資訊的規定。他們的官方部落格上一篇「YouTube如何支持選舉」的文章中,Youtube對於會誤導美國與選舉相關的內容採取的是零容忍的態度,例如可能誤導使用者和散播不實資訊的變造過影片;而此類別就包括了Deepfake(深偽技術)。關於候選人或投票過程的不實內容,無論是否變造過都不允許。


Twitter關於合成和變造媒體資訊的 規則更新中也包括了Deepfake(深偽技術),並未具體提到即將舉辦的美國大選。它單純宣布禁止「可能造成傷害」的合成或變造媒體資訊。據說該規則是基於去年底Twitter進行的一項調查,他們曾就如何處理有問題的媒體資訊並制定規則來徵詢大眾意見。


今年早些時候,Facebook還禁止用AI生成內容或Deepfake(深偽技術)偽造的媒體資訊。Facebook聯合創辦人Marc Zuckerberg自己也是網路上被傳播 Deepfake影片的主題


[延伸閱讀:預見新時代:網路犯罪分子使用機器學習來製造高度進階的威脅]


Deepfake(深偽技術)成為網路安全威脅


Deepfake(深偽技術)可被用來損害個人信譽或散播誤導性資訊,且因為此技術很容易取得,讓假新聞和網路宣傳的製作和消費比以往任何時候都更加快速和輕鬆。如果這些還不夠可怕,趨勢科技預測 Deepfake也將被越來越多地用於詐騙活動。就在去年,網路犯罪分子利用 Deepfake技術變造公司執行長的聲音從英國一家能源公司竊取了243,000美元。


[閱讀:新常態:趨勢科技2020年資安預測]


辨識 Deepfake 假影片的四個方法:

變造媒體資訊的情況如此嚴重,人們該如何辨識deekfake作品?對於影片,Wired.com採訪了白金漢大學數學與電腦教授Sabah Jassim及Spectre聯合創辦人Bill Posters,他們建議要注意以下事項:

  1. 眨眼率;Deepfake製作對象的眨眼率少於正常人
  2. 語音和嘴唇運動的同步狀況
  3. 情緒不符合
  4. 模糊的痕跡、畫面停頓或變色


由於Deepfake(深偽技術)可能成為CEO詐騙的新手法,並跟行之有年的變臉詐騙攻擊或稱為商務電子郵件入侵,簡稱BEC) 策略結合使用,因此建議使用者將將認識Deepfake及原本避免BEC詐騙的教育訓練結合起來。使用者可以採取的作法包括:仔細檢查電子郵件/電話/影片內提到的資訊(如銀行帳戶詳細資訊或所使用電子郵件/電話號碼)正確性,以及在進行下一步前跟其他相關方核實資金轉移請求。


此外,可以想見的是Deepfake成品的品質會越來越好,最終不會出現現在可用來察覺異狀的跡象。為了解決此問題,建議要定期對員工進行教育訓練,並提供他們關於新社交工程(social engineering)攻擊的最新資訊,包括跟Deepfake有關的發展。


趨勢科技Smart Protection Suites也包含了針對BEC詐騙及其他威脅的保護方案:


@原文出處:Youtube, Twitter Hunt Down Deepfakes

PC-cillin不只防毒也防詐騙 ✓手機✓電腦✓平板,跨平台防護3到位➔ 》即刻免費下載試用

💝▎每月7 日下午 4 點 , 趨勢科技 IG 帳號,Fun 送粉絲獨享禮 ▎💝
) 快進來看看 🙂

FB IG Youtube LINE 官網