AI 詐騙盯上 Gmail 帳戶備用碼、假市調公司搜集聲紋?!AI助攻,從釣魚信、簡訊進化到分聲/分身詐騙

藝人王仁甫揭露了詐騙集團利用AI聲紋辨識系統進行詐騙的案例。他的女兒接到假借市場調查的電話,收集了她的聲紋。隨後,王仁甫的老婆季芹接到詐騙電話,內容竟是女兒的聲音,要求匯款。這種利用AI變聲技術進行詐騙的手法,讓王仁甫直呼「很恐怖」,並已報警處理。此事件提醒民眾,對於陌生來電應提高警覺,切勿輕易透露個人資訊,以防受騙。

☞ 延伸閱讀:兒子來電聲稱手機壞掉,要重新加LINE?七旬老翁急匯款 38 萬,險遭AI詐騙

網路釣魚手法不斷推陳出新,從過去的釣魚信件、釣魚簡訊,到如今 AI 加持的「分聲詐騙」和「分身詐騙」,網路釣魚手法已經變得更為精密且難以辨識。現在詐騙集團不僅能模仿家人朋友的聲音,甚至能打造一模一樣的影像來假扮親近的人,讓受害者防不勝防。無論是哪一種犯罪手法,其目的都在誘騙人們提供敏感資料 (如密碼或信用卡資料)、點選惡意連結,或下載危險檔案。歹徒會冒充一些值得信任的對象,例如:銀行、政府機關、知名企業,或是您的家人和朋友,然後誘騙受害者做出一些損害其隱私或安全的行為。

近期出現了一種新型態的詐騙手法。駭客利用 AI 技術,結合電話和釣魚郵件,誘騙用戶交出帳戶備用碼,這種新型詐騙通常從一通假冒 Google 官方人員的電話開始,聲稱用戶的 Gmail 帳戶出現異常活動。接著,用戶會收到一封看似來自 Google 的電子郵件,要求提供帳戶備用碼,以恢復帳戶。一旦用戶交出備用碼,駭客就能完全掌控其 Gmail 帳戶。提醒您,切勿點擊任何可疑連結或下載不明檔案,輸入個資前務必確認網站安全性。同時,建議使用密碼管理器和定期監控帳戶活動,以確保帳戶安全。



繼續閱讀

AI一鍵脫衣,假裸照真勒索!想體驗AI脫衣魔法?當心反被勒索病毒扒光錢包

想像一下您接到一通視訊電話,但卻發現它是網路駭客製作的深偽視訊,而且幾可亂真。這樣的情境再也不是科幻小說的場景,而是今日數位領域正在快速演進的真實威脅。早在2020 年BBC 報導在社群媒體上有超過10萬名女性的照片遭人「AI一鍵脫衣」製作造假裸照散佈網路,更令人憂心這些照片被用來從事色情勒索。今年九月韓國也爆發大規模AI假裸照危機,據華爾街日報指出,受害者包括教師、軍官、大學生和小學生。而日前宣稱只要提供一張任何人的照片,就能生成出裸照的工具,也遭駭客利用,誘使下載後,植入勒索病毒等惡意程式。

趨勢科技的最新研究指出,深偽 (deepfake) 技術越來越容易取得,而且網路犯罪地下市場上的 AI 工具也越來越精密。這樣的演變,衍生出更多 AI 遭大規模濫用的機會,甚至讓不具備技術能力的網路犯罪分子也能輕鬆駕馭 AI 。

深偽工具氾濫,犯罪門檻降低,任何人都可能是受害者

在過去,這類變造手法的主要目標通常是名人,但現在,任何人,甚至未成年人或未經同意的成年人都可能成為受害者,尤其在社群媒體的持續擴散下。事實上,美國聯邦調查局 (FBI) 已發出警告指出深偽被用於性愛勒索與恐嚇犯罪所帶來的風險。網路犯罪地下市場上許多新的深偽工具都宣稱可以完美製作極為逼真的偽造影片和圖片。包括:

  • DeepNude Pro:這是一項 AI 脫衣犯罪服務,宣稱只要提供一張任何人的照片,就能生成出該人沒穿衣服的裸照,可用來從事色情勒索。

  • Deepfake 3D Pro:可從受害者的照片取出臉部來產生全合成的 3D 虛擬角色,虛擬角色可透過程式控制來發表預錄或生成的談話,為了讓虛擬分身看起來更加逼真,它的眼睛還會經常看著不同的方向,就像真人在講話時一樣。騙過銀行的 KYC 真人認證,或用來假冒名人從事詐騙或撥打網路釣魚電話。
  • Deepfake AI:可讓駭客將受害者的臉部移花接木到不堪的影片上來破壞受害者的名聲或用來勒索,也可用來散播假新聞。只支援預錄的影片。
  • SwapFace:可讓駭客偽造即時串流影音來從事變臉詐騙 (BEC) 攻擊或其他企業詐騙。
  • VideoCallSpoofer:與 SwapFace 類似,可從圖片產生逼真的 3D 虛擬角色,並且讓角色即時模仿演員的臉部動作。這可以讓深偽用於視訊會議電話以及類似的詐騙、假新聞等等的騙局。

SwapFace 與 Avatar AI VideoCallSpoofer 兩者都具備了即時的視訊換臉功能。因此可用來從事深偽視訊電話詐騙,就像 2024 年 2 月發生的案例一樣,受害的金融機構員工因為被深偽視訊電話所騙而匯款了 2,500 萬美元給歹徒。

繼續閱讀

趨勢科技研究發現:超過三分之二的人都擔心深偽 (Deepfake) 視訊換臉詐騙

深偽 (Deepfake)詐騙,也就是俗稱的 AI 視訊換臉/換聲,對網路資安與資訊交換帶來了嚴重的挑戰。趨勢科技近期在 2024 年 6 月下旬至 7 月中旬針對消費者對於深偽的認知、經驗及疑慮做了一份深入研究,披露了深偽對於網路資安以及社會大眾認知的廣泛影響。

認知與接觸情況


這份研究調查了美國與澳洲共 2,097 名受訪者,目的是要了解消費者對於深偽的認識、接觸情況以及疑慮。其中一項重要發現就是:受訪者對深偽有很高的認知,不過卻存在著明顯的世代差異。該研究特別篩選出熟知「Deepfake」一詞的受訪者,因此在年齡 55 和更老的族群當中,不合資格的比例偏高,尤其在澳洲。這突顯出加強特定對象的教育以消除數位素養落差的必要性。

受訪者接觸深偽的情況相當普遍,有 80% 的受訪者都曾遇到過深偽圖片,有 64% 曾看過深偽影片、48% 聽過深偽音訊。社群媒體平台是這類接觸的主要來源,突顯出深偽在數位世界極為普遍的現象。有趣的是,有很大部分受訪者表示他們有能力分辨深偽:57% 可分辨圖片、48% 可分辨影片、45% 可分辨音訊。這顯示人們對於這類被篡改內容的認知越來越高,至少在目前偽造品質還不佳的時候。

但事實上,隨著深偽技術的持續進步,人類肉眼已經越來越難可靠地分辨深偽,這正是為何趨勢科技最近會推出一個叫做「Deepfake Inspector」的「免費」工具來協助您即時確保視訊通話的安全。此外,也請參考我們的最佳實務原則來避免自己受到深偽的危害

繼續閱讀

您該如何防範深偽(Deepfake)AI詐騙影片?

深偽技術(Deepfake) 詐騙影片是使用人工智慧 (AI) 來產生模仿人們講話或動作的超逼真影片或音訊,就如同他們真的說過那些話或真的做過那些事情一樣。深偽技術正被歹徒用來從事視訊電話詐騙,對一般個人和企業機構都構成了嚴重風險。

當您在進行視訊電話時,您如何知道對方是否為真人,還使用深偽技術做出來的冒牌貨?在一個充斥著深偽的世界,眼見不再為憑,所以,認識及對抗這類技術所帶來的風險,比以往更加重要。欲了解什麼是深偽,以及如何辨識,請參閱這篇「深偽的第一堂課」(Deepfake 101) 貼文。

繼續閱讀

2024年最會演的AI!投資人、HR、愛情暈船者必須了解的三種 Deepfake深偽詐騙影片

Deepfake(深偽技術)詐騙影片、AI 換臉、AI 模仿聲音… 怎麼感覺現在好像再也沒有什麼可以相信的了?在人工智慧 (AI) 的加持下,深偽技術正在迅速發展,這使得真實與虛假的界線越來越模糊。請繼續往下閱讀來了解您 2024 年最應注意的幾種深偽詐騙。



駭客集團會利用深偽來假冒名人、公眾人物或企業高階主管來從事各種不法活動,造成各種嚴重後果,包括財務損失、名譽損失等等。例如,在 AI 的推波助瀾下,性愛勒索變得比以往更加猖獗。深偽技術讓歹徒更容易利用被害者在社群媒體上發布的照片和影片偽造出不雅的內容,藉此勒索或騷擾被害者,為此,美國聯邦調查局 (FBI) 已提出警告。

繼續閱讀