AI使網路陷阱更擬真!三大長輩最容易中招的網路地雷

PC-cillin 2025母親節五折優惠  守護長輩線上網購、撿便宜、社群交流都安心

【2025年5月7日,台北訊】這週日就是母親節了,除了鮮花、聚餐、禮物表心意,還有什麼方式可以讓媽媽或家中長輩的日常多一分安心與安全呢?近年生成式AI讓生活更加便利,成為陪伴長輩聊天及查詢資訊的好幫手,卻也讓不肖分子有了升級版的網路攻擊工具,當詐騙話術、假網站越來越擬真,一不注意就可能掉入陷阱,導致裝置運行速度變慢、個資外洩、財務損失,也可能無意間成為網路攻擊幫兇,導致親友一起受害。全球網路資安解決方案領導廠商趨勢科技(東京證券交易所股票代碼:4704)整理三大長輩最常遇到的網路風險與應對方式,呼籲民眾應多加留心長輩的上網安全、升級數位防護罩,守護日常上網不中計!為歡慶母親節,趨勢科技推出「守護媽咪 上網安心點」活動,即日起至5月12日上午10點止,購買PC-cillin 2025雲端版三年三台下載版,即可享有五折優惠(優惠價$2,535,原價$5,070),讓媽媽每一次的上網點擊多一份安心!

三大長輩容易中招的網路風險與應對策略

1. 網購趨勢逐年增,「刷」下去那一刻藏陷阱!「安心Pay」守護線上交易

繼續閱讀

「徵配音員/有聲書錄製員」也能變詐騙!小心你的聲音被拿去騙你爸媽

「你沒被詐騙,不是你聰明,而是還沒遇到適合你的劇本」!這是網路流傳的防詐金句,AI 真愈來愈會演了!別以為只有名人會被AI仿聲,現在詐騙集團開始主動出擊,想辦法收集你的聲音,小心你上傳的短影片, 3秒就被AI 做成「分聲」詐騙親友。還不止如此,還可能讓你成為人頭帳戶。


近期Threads出現徵「有聲書錄製人員」的訊息,標榜自由、在家工作,私訊報名。資安專家和165反詐騙專線均指出,這是常見的詐騙手法,有多項疑點:工作描述過於簡單、薪資不明、聲稱無經驗可、僅以私訊聯繫、發布帳號不活躍。提供個資和聲音檔恐遭盜用或用於AI訓練詐騙。台灣事實查核中心已經證實是詐騙!提醒民眾勿輕易洩漏個資,應循正式管道應徵。趨勢科技AI 防詐達人也偵測到此為詐騙貼文,提醒民眾網路求職如有疑慮,可善用其截圖查證功能,並立即免費下載。請勿輕易洩漏個資,應循正式管道應徵。

趨勢科技防詐達人截圖查證發現這個Threads出現徵「有聲書錄製人員」的訊息,標榜自由、在家工作,私訊報名。是詐騙!
Threads出現徵「有聲書錄製人員」的訊息,標榜自由、在家工作,私訊報名。是詐騙!趨勢科技AI 防詐達人偵測到此為詐騙貼文,提醒民眾網路求職如有疑慮,可善用其截圖查證功能,並立即免費下載。請勿輕易洩漏個資,應循正式管道應徵。

通常歹徒會常在臉書、IG等社群發布有聲書錄音員徵才訊息,誘騙民眾主動加LINE好友。一旦成為好友,對方會假冒知名有聲書平台(如喜馬拉雅、讀墨)名義,說明工作內容並提供言情小說文本進行「線上試音」。

試音要求也暗藏玄機:需透過LINE語音功能「一句一句」錄製並傳送主角台詞。接著,詐騙方會謊稱錄音通過審核,並給予誇讚,再以協助註冊「公司內部錄音系統」為由,誘騙點擊釣魚連結,藉此竊取個資。

⭕️ 提醒:凡是要求加LINE好友、註冊不明系統的徵才資訊,務必提高警覺!

有聲書錄製詐騙並非新鮮事!早在2024年7月,藝人連俞涵就曾公開示警,有詐騙集團盜用她錄製有聲書的受訪影片進行虛假徵才,呼籲民眾提高警覺,切勿輕易提供個人資料。

趨勢科技的 AI 防詐達人是一套多功能反詐騙解決方案。
它不但能幫您即時偵測詐騙並發出警報,讓詐騙集團沒機會得手;還能讓您輕鬆確認自己看到的是不是詐騙。 趨勢科技AI 防詐達人 給您所需的工具和資訊來保護自己,讓您和家人、更加安心。
瞭解多功能反詐騙解決方案-「AI 防詐達人」 不論是廣告、網站或訊息,「詐騙查證」功能都可協助您立即確認是不是詐騙,您只需將您看到的內容分享給我們,其餘的就交給我們。

⦿擔心被網路詐騙?懷疑網路徵才訊息或收到的簡訊是詐騙?立即上傳截圖,即刻查證!

◎瞭解更多 趨勢科技AI 防詐達人
Android用戶請立即免費下載iOS用戶請立即免費下載

從去年暑假開始,就有詐騙集團盜用電子書的文案與圖片,甚至冒用知名配音員的影片,聲稱正在招募「配音員」錄製有聲書,還強調每小時可賺五百元。許多人一看到高薪機會便心動應徵,沒想到過程中卻被要求提供個人資料,之後更被拉進所謂的「投資群組」。近期,這類詐騙手法再度升級,這種以「招聘配音員」為幌子的新型態詐騙,歹徒鎖定應徵者,誘使其錄製多段語音樣本,並要求提供履歷與銀行帳戶等敏感資訊。他們假冒「錄取」名義,騙取應徵者完整的聲音素材,當你以為真的上工時,其實聲音早被偷走,帳戶資料也落入壞人手中。詐騙集團利用AI語音合成技術,模擬你的聲線向親友進行詐騙,打電話給你的家人演一齣「急需匯款」的戲碼,讓人防不勝防。更嚴重的是,他們還可能利用你的帳戶當人頭,拿去進行洗錢等犯罪操作。

避免在社群媒體上過度分享個人或親友資訊,以免讓詐騙集團有機可乘,提高其謊言的可信度。
⭕️ PC-cillin 檢查社群/網站隱私設定安全性 ⟫免費下載試用

⭕️ 防詐達人口訣:
密語暗號先講好 真假親友秒現形
先掛電話查真相 詐騙詭計立露餡
銀行資料不亂給 網路明牌別當真
視訊畫面別全信 山寨假人做白工
社群隱私需設定 拒當詐騙劇本庫

繼續閱讀

什麼是 DeepSeek AI?了解 DeepSeek 資料外洩事件和 OpenAI 遭駭指控

人工智慧正迅速發展,OpenAI 和 DeepSeek 等公司在尖端研發領域處於領先地位。然而,隨著科技的巨大進步,也帶來了嚴峻的網路安全挑戰。最近,DeepSeek AI 和 OpenAI 都發生了安全事件,引發了人們對人工智慧相關數據隱私以及用戶潛在風險的擔憂。

什麼是 DeepSeek AI?了解 DeepSeek 資料外洩事件

DeepSeek AI 是一家中國人工智慧公司,專注於大型語言模型和深度學習。該公司被指控抄襲 OpenAI,並且面臨其他版權索賠。此外,外界對其用戶隱私保護及與中國政府的關係也有所疑慮。

繼續閱讀

AI 加持的詐騙新戰場,最新防詐攻略解析

提到AI 詐騙,不得不提到近日升溫的AI詐騙案例,「新北多位里長遭AI換臉合成不雅片勒索,險害家庭革命」、「劉德華現身視訊?粉絲傻傻信,慘遭詐騙264萬」、「數百名AI生成的馬斯克分身用Deepfake換臉詐騙影片,讓退休老人被騙超過千萬!」,你我都可能成為下個受害者,該如何自我保護?

人工智慧 (AI) 的快速發展已在許多產業掀起革命,從醫療至金融業等等。然而這項技術的進步也有其黑暗的一面:網路駭客正利用 AI 來製造更精密、更逼真的詐騙。
在 AI 的加持下,詐騙變得越來越容易製造和散播,這意味著詐騙集團可以花更少力氣完成更多工作,同時也有更多平台變成他們的攻擊目標。當我們在面對這樣的新情勢,很重要的就是要了解威脅如何演進,以及如何保護自己。

影片裡記者突然變臉劉德華播新聞?是假是真你看得出來嗎?

AI已經是科技趨勢,詐騙集團也已經利用AI技術詐騙,常見的就包括「AI變臉」化身名人,甚至還能打視訊電話,不過有這也推出防詐軟體,能辨識出對方是不是AI變臉。另外,刑事局165也在LINE上設有防詐系統,直接輸入對方的號碼,就能得知是不是詐騙電話。 來源:TVBS

安裝 AI 防詐達人,可即時偵測視訊電話中的深偽,當任何人使用 AI 換臉技術來改變容貌時,立即發出警報。

AI 在詐騙方面最狡猾的用途之一,就是分析潛在受害者的線上活動和興趣。這使得網路駭客能夠製作高度個人化且極具說服力的網路釣魚詐騙,還有其他針對性威脅。AI 工具能快速分析大量可公開取得的資料,例如從社群媒體個人檔案、論壇貼文、購買紀錄,以及其他線上來源,然後針對個人建立其詳細的檔案。機器學習演算法可從個人的線上行為當中找出模式,例如他們經常討論的議題、經常瀏覽的網站,或是他們在網路上最活躍的時間。

自然語言處理可讓 AI 分析潛在受害者的寫作風格和語言習慣,如此一來詐騙集團就能模仿他們說話的方式來撰寫訊息。AI 可根據已分析的資料來預測哪種詐騙或網路釣魚誘餌更容易讓某人上當。達到這樣的個人化程度,就能讓詐騙更具說服力、也更難偵測。比方說,網路釣魚郵件可提及攻擊目標最近購買的商品,使用他們與朋友聊天的方式,或特別提到某些興趣和嗜好。

繼續閱讀

AI一鍵脫衣,假裸照真勒索!想體驗AI脫衣魔法?當心反被勒索病毒扒光錢包

想像一下您接到一通視訊電話,但卻發現它是網路駭客製作的深偽視訊,而且幾可亂真。這樣的情境再也不是科幻小說的場景,而是今日數位領域正在快速演進的真實威脅。早在2020 年BBC 報導在社群媒體上有超過10萬名女性的照片遭人「AI一鍵脫衣」製作造假裸照散佈網路,更令人憂心這些照片被用來從事色情勒索。今年九月韓國也爆發大規模AI假裸照危機,據華爾街日報指出,受害者包括教師、軍官、大學生和小學生。而日前宣稱只要提供一張任何人的照片,就能生成出裸照的工具,也遭駭客利用,誘使下載後,植入勒索病毒等惡意程式。

趨勢科技的最新研究指出,深偽 (deepfake) 技術越來越容易取得,而且網路犯罪地下市場上的 AI 工具也越來越精密。這樣的演變,衍生出更多 AI 遭大規模濫用的機會,甚至讓不具備技術能力的網路犯罪分子也能輕鬆駕馭 AI 。

深偽工具氾濫,犯罪門檻降低,任何人都可能是受害者

在過去,這類變造手法的主要目標通常是名人,但現在,任何人,甚至未成年人或未經同意的成年人都可能成為受害者,尤其在社群媒體的持續擴散下。事實上,美國聯邦調查局 (FBI) 已發出警告指出深偽被用於性愛勒索與恐嚇犯罪所帶來的風險。網路犯罪地下市場上許多新的深偽工具都宣稱可以完美製作極為逼真的偽造影片和圖片。包括:

  • DeepNude Pro:這是一項 AI 脫衣犯罪服務,宣稱只要提供一張任何人的照片,就能生成出該人沒穿衣服的裸照,可用來從事色情勒索。

  • Deepfake 3D Pro:可從受害者的照片取出臉部來產生全合成的 3D 虛擬角色,虛擬角色可透過程式控制來發表預錄或生成的談話,為了讓虛擬分身看起來更加逼真,它的眼睛還會經常看著不同的方向,就像真人在講話時一樣。騙過銀行的 KYC 真人認證,或用來假冒名人從事詐騙或撥打網路釣魚電話。
  • Deepfake AI:可讓駭客將受害者的臉部移花接木到不堪的影片上來破壞受害者的名聲或用來勒索,也可用來散播假新聞。只支援預錄的影片。
  • SwapFace:可讓駭客偽造即時串流影音來從事變臉詐騙 (BEC) 攻擊或其他企業詐騙。
  • VideoCallSpoofer:與 SwapFace 類似,可從圖片產生逼真的 3D 虛擬角色,並且讓角色即時模仿演員的臉部動作。這可以讓深偽用於視訊會議電話以及類似的詐騙、假新聞等等的騙局。

SwapFace 與 Avatar AI VideoCallSpoofer 兩者都具備了即時的視訊換臉功能。因此可用來從事深偽視訊電話詐騙,就像 2024 年 2 月發生的案例一樣,受害的金融機構員工因為被深偽視訊電話所騙而匯款了 2,500 萬美元給歹徒。

繼續閱讀