「我不會聽錯自己孫子的哭聲。」當爸爸變成「老爸」,防詐騙之前先防孤單

曾幾何時那位離你最近的 ATM、那個冷笑話產生器、那個市面上沒有販售的尖叫遙控滅蟑神器,不管你稱呼他「阿爸」「多桑」「拔巴」或「爹地」,一瞬間變成了名符其實的「老爸」。現在換你對他說:「不要急,慢慢來」的人,除了防跌倒、防失智,更要防孤單,有個真實案例一位老爸心甘情願被詐騙的原因居然是: 「我好孤單」,因為騙子給了他兒子給不了陪伴。

以前被嫌棄打呼太大聲;現在常被確認是否還有呼吸

以前全家都聽我的;現在只有Siri,問再多遍,都不嫌煩

以前夏天吹電扇,開電視看棒球轉播;現在拿遙控器開冷氣,卻關掉了電視奧運轉播

繼續閱讀

IG帳號被盜怎麼辦?三個步驟找回來

IG大量盜用事件發生中,小心好友傳的可疑連結 !!

小心近期大量民眾 IG 被盜,瘋狂向好友發送「限時秒殺,幫忙砍價格」和「幫忙輔助驗證」的訊息。注意!就算是好友傳的連結也不要輕易相信,背後可能是詐騙集團。
小心近期大量民眾 IG 被盜,瘋狂向好友發送「限時秒殺,幫忙砍價格」和「幫忙輔助驗證」的訊息。注意!就算是好友傳的連結也不要輕易相信,背後可能是詐騙集團。

駭客如果能夠登入你的社群帳號肯定不是件令人愉快的事情。如果不阻止,他們就可能會冒用你的名義發文,冒充你發訊息給你的朋友,甚至會刪除你的帳號。

懷疑你的Instagram帳號可能被盜了嗎?本文會介紹一三個讓你能取回帳號控制權的作法。


繼續閱讀

詐騙也搭AI 熱潮! 黃仁勳帶你飆股賺大錢?警方:小心投資有去無回!

AI 熱潮引來不法分子覬覦,詐騙集團盜用輝達(NVIDIA)執行長黃仁勳照片,在社群網站刊登詐騙廣告,當你點選「領取AI飆股」,網頁就會出現 QR Code 或是網路連結,接著就會被引導到詐騙集團所設的LINE群組,以各種話術誘騙有發財夢者進入「投資平台」進行投資,並下載所謂的投資 App 操作匯款。警方強調,這些平台全部都架設在海外,受騙者極有可能求償無門。


AI 熱潮引來不法分子覬覦,詐騙集團盜用輝達(NVIDIA)執行長黃仁勳照片,在社群網站刊登詐騙廣告,當你點選「領取AI飆股」,網頁就會出現 QR Code 或是網路連結,接著就會被引導到詐騙集團所設的LINE群組,以各種話術誘騙有發財夢者進入「投資平台」進行投資,並下載所謂的投資 App 操作匯款。警方強調,這些平台全部都架設在海外,受騙者極有可能求償無門。

執法單位提醒,網路上出現的任何以黃仁勳名義發布的投資廣告都是詐騙,呼籲民眾切勿輕信,務必提高警覺。另外,根據新聞報導最近有三位家庭主婦深信 AI 為未來趨勢,依照詐騙者指示,先後透過面交及匯款方式共損失逾兩千萬元。直至發現無法提領所謂獲利,驚覺上當受騙已經為時已晚。

【投資詐騙:保證獲利?保證禍臨】

繼續閱讀

Google 通知「您的密碼已遭外洩!」三步驟分辨是否為正牌官方通知!

有些 Google 使用者反映收到了有關其資料遭到外洩而必須變更密碼的通知。這引起了不少擔心和疑惑,很多人都在問:這通知到底是不是真的?

圖片來源:Pexels

隨著資料外洩事件日益頻傳,有些 Google 使用者反映收到了有關其資料遭到外洩而必須變更密碼的通知。這引起了不少擔心和疑惑,很多人都在問:這通知到底是不是真的?這類 Google 通知確實是真的,但也有一些是假的,所以很重要的是要能分辨其中的差異。

繼續閱讀

兒子來電聲稱手機壞掉,要重新加LINE?七旬老翁急匯款 38 萬,險遭AI詐騙

新北市一名男子接到自稱是兒子的來電,表示手機壞掉需要重新加LINE好友,男子不疑有他便照做,並依指示匯款38萬元給對方。幸好,銀行行員機警察覺有異,及時攔阻了這場AI人聲詐騙。
根據台視新聞報導 ,新北市一名男子日前前往銀行準備匯款給兒子時向行員表示,兒子要買電腦設備急用錢。不過,行員在核對匯款資料時,發現兩人是在幾天前才剛加好友。

圖片截圖來源:台視


行員覺得情況有異,懷疑這是一場詐騙。隨即聯絡警方到場,經警方調查後發現,男子的兒子根本沒有打電話給他,而是一名詐騙集團利用AI技術模擬人聲,冒充男子的兒子行騙。
警方表示,詐騙集團近年來經常利用AI技術進行詐騙,手法十分逼真,民眾應提高警覺,不要輕易相信陌生人的來電或訊息,如有任何疑慮,應主動向警方或銀行查證。

無獨有偶,2024年四月高雄一名79歲男子日前接到一通自稱是他姪子的來電,對方表示換了新電話,並想借錢投資。男子一聽聲音確實像自己的姪子,便前往銀行匯款。不料,姪子收到錢後又來電要求再借一筆。男子再次前往銀行匯款時,行員察覺有異,立即通報員警。經調查後證實,這是一個詐騙集團利用AI技術仿冒姪子聲音,企圖詐取長輩的錢財。


◎趨勢科技AI 防詐達人可及時提醒您視訊對象可能是假冒的
瞭解更多AI 防詐達人
Android用戶請立即免費下載iOS用戶請立即免費下載


「媽,我被綁架了!」小心你上傳的短影片, 3秒就被AI 做成「分聲」詐騙你媽

電影《捍衛戰士》第二集中飾演冰人的方基墨因為罹患喉癌而幾乎無法開口講話,片中的對話台詞其實是藉由AI模擬出的對話台詞。

知名美劇《黑鏡(Black Mirror)》中,主角藉著已經過世丈夫生前在社群媒體上的貼文,而由 AI 生成宛若重生的亡夫語氣跟主角互動。而這場景,也被專家預測有實現的可能。

最令人憂心的是,詐騙集團利用AI語音複製/AI仿聲術,進行相似度高達九成的電話語音詐騙。

近年來,科技的進步讓電腦複製人類語音達到了難以置信準確的程度。這項技術被稱為AI語音複製/AI仿聲術,並且已經有相當多實際的應用,但同時也催生了一種任何人都可以利用語音複製功能進行的新型詐騙, 柏克萊加州大學電腦科學教授 Hany Farid表示,這項詐騙成本每月只需五元。根據美國聯邦貿易委員會(FTC)統計資料顯示,去年美國人被AI 仿聲詐騙金額高達26億美元,平均一戶家庭被詐騙1萬1000美元。

詐騙者利用AI語音複製技術詐騙金錢或敏感資訊屢屢得逞。騙徒透過社交媒體搜尋獵物,以公開的個人資訊及影片檔案,製成可信度極高的語音詐騙,美國聯邦貿易委員會(Federal Trade Commission,縮寫:FTC警告,詐騙者利用 TikTok 帳戶或Instagram社群媒體上的短影音片段就可以在3 秒內輕易地建立「分聲」 ,然後利用這些連哭聲都一模ㄧ樣的聲音,向心急如焚的父母勒索大筆贖金。

繼續閱讀