AI換臉真假難辨?六招辨別深偽(Deepfake)詐騙影片

「深偽」(Deepfake) 一詞是深度學習 (deep learning) 與偽造 (fake) 的合體,由 Reddit 的一名使用者在 2017 年所創。深偽可以是一個模仿某人外貌或聲音的偽造照片、影片或錄音,其目的是要用於欺騙或娛樂大眾。在先進的機器學習加持下,深偽有時非常逼真。過去,深偽主要是在社群媒體上作為娛樂用途,但其濫用的潛力很快就被人發現。現在,深偽已成為隱私、安全及資訊傳播的一大威脅。趨勢科技在 2024 年 6 月做了一份研究指出,有 71% 的人對於深偽抱持負面的看法,相信任人們製作深偽的首要原因就是為了詐騙1


深偽是如何製作的?


製作深偽需要用到一種叫做「生成對抗網路」(Generative Adversarial Network,簡稱 GAN) 的高階電腦程式來製作逼真的影像。主要分成四大步驟:

繼續閱讀

AI PC 時代,如何保護 AI 模型不被惡意篡改?

本文討論正確偵測並適當保護 AI 模型檔案及相關資產 (例如「標籤-labels」) 以防止遭到惡意篡改或非預期變更的重要性

AI PC 時代,如何保護 AI 模型不被惡意篡改?

AI 個人電腦 (PC) 是一種同時具備中央處理單元 (CPU)、繪圖處理單元 (GPU) 以及神經處理單元 (GPU) 的電腦,其中新增的 NPU 可提升 PC 的能力,讓 AI 應用程式高效率地在本地端執行,除了可以不須隨時連上網際網路之外,同時也避免掉雲端服務與雲端 AI 解決方案天生的隱私權疑慮。

本地端 AI 模型可以讓 AI 模型針對特定應用而客製化,並與工作流程整合。此外,本地端 AI 模型也讓網頁式或混合式應用程式能將一部份的運算保留在本機上執行。相較於完全仰賴線上或網頁式服務,這麼做可節省應用程式或服務供應商的儲存空間與運算成本。

AI 模型有多種不同格式,最流行的有:Open Neural Network Exchange (ONNX) 、PyTorch 、KerasTensorflow。本文主要討論 ONNX 格式,這是目前最常見的 AI 模型格式,因為它屬於開放標準,並且獲得了許多機構的支持,包括:Linux Foundation、Microsoft 以及多家主要 AI 廠商。正因為這樣,所以 ONNX AI 模型可直接在很多不同的軟體與硬體平台上使用。Microsoft 在最近剛結束的 Microsoft Build 研討會上一再提到了 ONNX,不意外地,未來 Copilot+ AI PC 搭載的 Phi-3-mini小型語言模型 (SLM) 也將採用  ONNX 格式

繼續閱讀

趨勢科技發表世界首款專為消費性AI PC設計的資安解決方案

創新功能「AI應用程式防護」、「NPU驅動的電子郵件防護」於COMPUTEX 2024展示

【2024年6月6日,台北訊】全球網路資安領導廠商趨勢科技(東京證券交易所股票代碼:4704) 正式於COMPUTEX展示第一款專為防範AI PC時代新興威脅的消費性資安解決方案,並計劃於2024下半年推出上市。

【圖說一】趨勢科技於COMPUTEX展示首款專為防範AI PC時代新興威脅的消費性資安解決方案。

趨勢科技將創新擴大至與英特爾的合作,隨著持續聚焦AI及其他新興技術,與業界同儕的合作更顯重要。趨勢科技營運長(COO)Kevin Simzer表示:「我們不僅將AI技術運用在資安防護中,更努力守護AI應用本身的安全。AI時代的價值終將取決於AI的安全性,從企業到一般消費者皆不例外。現今仍有許多廠商尚未發展相關方案,而趨勢科技領先業界讓企業與消費性資安發展齊頭並進。」

繼續閱讀

兒子來電聲稱手機壞掉,要重新加LINE?七旬老翁急匯款 38 萬,險遭AI詐騙



新北市一名男子日前接到自稱是兒子的來電,表示手機壞掉需要重新加LINE好友,男子不疑有他便照做,並依指示匯款38萬元給對方。幸好,銀行行員機警察覺有異,及時攔阻了這場AI人聲詐騙。
根據台視新聞報導 ,新北市一名男子日前前往銀行準備匯款給兒子時向行員表示,兒子要買電腦設備急用錢。不過,行員在核對匯款資料時,發現兩人是在幾天前才剛加好友。

圖片截圖來源:台視


行員覺得情況有異,懷疑這是一場詐騙。隨即聯絡警方到場,經警方調查後發現,男子的兒子根本沒有打電話給他,而是一名詐騙集團利用AI技術模擬人聲,冒充男子的兒子行騙。
警方表示,詐騙集團近年來經常利用AI技術進行詐騙,手法十分逼真,民眾應提高警覺,不要輕易相信陌生人的來電或訊息,如有任何疑慮,應主動向警方或銀行查證。

無獨有偶,四月高雄一名79歲男子日前接到一通自稱是他姪子的來電,對方表示換了新電話,並想借錢投資。男子一聽聲音確實像自己的姪子,便前往銀行匯款。不料,姪子收到錢後又來電要求再借一筆。男子再次前往銀行匯款時,行員察覺有異,立即通報員警。經調查後證實,這是一個詐騙集團利用AI技術仿冒姪子聲音,企圖詐取長輩的錢財。

(以上2024/5/24更新)


「媽,我被綁架了!」小心你上傳的短影片, 3秒就被AI 做成「分聲」詐騙你媽

電影《捍衛戰士》第二集中飾演冰人的方基墨因為罹患喉癌而幾乎無法開口講話,片中的對話台詞其實是藉由AI模擬出的對話台詞。🥹

知名美劇《黑鏡(Black Mirror)》中,主角藉著已經過世丈夫生前在社群媒體上的貼文,而由 AI 生成宛若重生的亡夫語氣跟主角互動。而這場景,也被專家預測有實現的可能。

最令人憂心的是,詐騙集團利用AI語音複製/AI仿聲術,進行相似度高達九成的電話語音詐騙。

近年來,科技的進步讓電腦複製人類語音達到了難以置信準確的程度。這項技術被稱為AI語音複製/AI仿聲術,並且已經有相當多實際的應用,但同時也催生了一種任何人都可以利用語音複製功能進行的新型詐騙, 柏克萊加州大學電腦科學教授 Hany Farid表示,這項詐騙成本每月只需五元。根據美國聯邦貿易委員會(FTC)統計資料顯示,去年美國人被AI 仿聲詐騙金額高達26億美元,平均一戶家庭被詐騙1萬1000美元。

詐騙者利用AI語音複製技術詐騙金錢或敏感資訊屢屢得逞。騙徒透過社交媒體搜尋獵物,以公開的個人資訊及影片檔案,製成可信度極高的語音詐騙,美國聯邦貿易委員會(Federal Trade Commission,縮寫:FTC警告,詐騙者利用 TikTok 帳戶或Instagram社群媒體上的短影音片段就可以在3 秒內輕易地建立「分聲」 ,然後利用這些連哭聲都一模ㄧ樣的聲音,向心急如焚的父母勒索大筆贖金。

👉 趨勢科技在Computex 展出多項 AI資安相關技術 – Connecting AI Security, 6/4~6/7 ⟫了解更多

繼續閱讀