解鎖 Amazon Security Lake 的強大威力,打造主動式防護

解鎖 Amazon Security Lake 的強大威力,打造主動式防護

資安是應用程式開發及現代化的主要挑戰之一,這一點已經不是祕密。資安不僅在我們建構應用程式的方法上扮演著重要角色,同樣也左右著我們如何維護應用程式。

保護應用程式的方法有很多,從程式碼的撰寫方式到部署方式都是其中之一。但這所有的不同方法都是為了解決同樣的挑戰:如何利用資料來發掘真正的資安事件,還有,如果事件已經發生,未來該如何防止它們再次發生?

在現代化應用程式當中,想要達成這項目標,通常得跳脫傳統的資安框架。資安人員不僅要了解資安的基本原理,還要了解應用程式如何建構、如何運作,以及應用程式內的資料如何流動。

此外,還有一些豐富資料可以運用,包括:應用程式記錄檔、使用監測資料,以及資源之間的關係。但真正的挑戰不在於資料的蒐集,而是將不同的資料格式轉換成共通語言,並從應用程式看似雜亂的日常行為當中萃取出可化為行動的洞見。

本文探討如何利用這些洞見來偵測真正的資安事件,並防止事件再次發生。

⟫ 完整文章

新勒索軟體 Charon 採用 Earth Baxia APT 技術鎖定企業
趨勢科技發現了一個新的攻擊,利用名為 Charon 的新型勒索軟體家族,並結合進階的 APT 式技術,針對不同組織發動攻擊,並提出客製化的勒索要求

⭕️ 重點摘要:

  • Trend™ Research 發現了一起攻擊行動正在使用 Charon 這個新的勒索病毒家族以及進階持續性滲透攻擊 (APT) 技巧 (包括 DLL 側載、處理程序注入以及 EDR 反制功能) 來攻擊企業,並且使用了客製化的勒索訊息。
  • 這起近期發現的勒索病毒攻擊行動將對企業帶來嚴重的業務風險,包括營運中斷、資料外洩,以及停機所帶來的財務成本。此外,勒索病毒集團的手法還會破壞本機和網路上的資料,並且阻礙復原工作。
  • Trend Vision One™ 已可偵測並攔截本文提到的 Charon 勒索病毒相關入侵指標 (IoC)。此外,客戶還可透過量身訂製的追蹤查詢、Threat Insights 及 Intelligence Reports 來深入了解 Charon 並主動加以防範。

⟫ 完整文章

專攻Linux系統!勒索軟體Gunra高效變種現身

本文說明 Gunra 勒索病毒最新的 Linux 變種如何提高加密速度以及提供客製化功能,並藉由進階的跨平台手法來擴大集團版圖。

⭕️ 重點摘要:

  • Gunra 勒索病毒的 Linux 變種擴大了該集團的攻擊面,顯示出該集團希望進一步擴張原有版圖的野心。
  • 這個 Linux 變種具備了一些值得注意功能,包括:可同時執行 100 個加密執行緒,並支援局部加密。此外,駭客還可控制每個檔案要加密的內容多寡,並可選擇將 RSA 加密後的金鑰保存在另外的金鑰儲存區 (keystore) 檔案。
  • 自 2025 年 4 月被首次發現以來,Gunra 勒索病毒已攻擊了巴西、日本、加拿大、土耳其、南韓、台灣及美國等地的企業,受害機構遍及製造、醫療、IT 及農業等產業,還有法律和顧問機構。
  • Trend Vision One™ 已可偵測並攔截 Gunra 勒索病毒相關的入侵指標 (IoC)。此外,Trend Vision One 的客戶還可透過追蹤查詢、Threat Insights 及 Intelligence Reports 來取得有關 Gunra (包括其 Linux 變種) 的豐富資訊和最新消息。

    ⟫ 完整文章

Microsoft SharePoint 重大資安漏洞:CVE-2025-53770、CVE-2025-53771 深度分析與主動防禦

企業內 Microsoft SharePoint 伺服器的 CVE-2025-53770 和 CVE-2025-53771 漏洞是從先前已修補的漏洞演化而來,可讓駭客不須經過驗證就能利用進階反序列化技巧與濫用 ViewState 物件從遠端執行程式碼。

⭕️ 重點摘要

  • CVE-2025-53770 和 CVE-2025-53771 是企業內 Microsoft SharePoint 伺服器的漏洞,可讓駭客上傳惡意檔案並擷取加密金鑰。
  • 這些漏洞是從先前修補過的 CVE-2025-49704 和 CVE-2025-49706 漏洞進一步演化而來,廠商當初的矯正並不完全,所以讓駭客能透過進階的反序列化技巧並濫用 ViewState 物件來繞過認證機制,從遠端執行程式碼 (RCE)。
  • 我們已看到駭客在各種產業試圖發動相關的漏洞攻擊,包括:金融、教育、能源及醫療。
  • Microsoft 已針對 SharePoint Subscription Edition 和 SharePoint Sever 2019 發布了安全更新,至於 SharePoint Sever 2016 則尚未發布修補更新。Trend Micro™ TippingPoint™ 的客戶自 2025 年 5 月起便已獲得防護來防範相關攻擊。


⟫ 完整文章

捲土重來:Lumma Stealer 帶來更強大的隱匿技巧

Lumma Stealer 帶來更強大的隱匿技巧 這一次,惡意程式背後的駭客集團似乎採取了更隱匿的技巧,並持續穩定地擴大地盤。本文說明這項威脅最新的散播方法。

重點摘要

  • Lumma Stealer 在 5 月份遭到破獲之後沒過多久便再次重生,且受害帳號數量從 6 月至 7 月開始暴增。現在,惡意程式會經由更多隱匿的管道散布,並採用更隱密的躲避技巧。
  • 具備資訊竊取功能的 Lumma Stealer 會搜刮登入憑證和私人檔案等各種敏感資料。此外,由於它是以惡意程式服務 (Malware as a Service,簡稱 MaaS) 的方式來銷售,因此就算是完全沒有技術背景的不肖之徒也駕馭這套惡意程式。
  • 使用者有可能經由假的破解版軟體、假冒的網站,以及社群媒體貼文而被騙下載到 Lumma Stealer。對企業而言,缺乏網路資安意識的員工很容易成為這類攻擊的受害者。
  • Trend Vision One™ 已經可以偵測並攔截本文討論到的入侵指標 (IoC)。此外,Trend Vision One 的客戶還可透過追蹤查詢、Threat Insights 及 Intelligence Reports 來取得有關 Lumma Stealer 的豐富資訊和最新消息。

⟫ 完整文章

深入分析Microsoft 365 Copilot零點擊 AI 漏洞:EchoLeak

一種名為「EchoLeak」的零點擊 (zero-click) 漏洞攻擊手法,揭露了駭客如何操弄像 Microsoft 365 Copilot 這樣的 AI 助理,在不須使用者互動的情況下洩露機敏資料。本文詳細介紹這類攻擊手法的運作方式、為何危險,以及有哪些防禦機制可主動防範這類新興的 AI 原生威脅。

重點摘要

  • EchoLeak 是一個零點擊 (zero-click) AI 漏洞,利用 Copilot 的歷史資料作為情境,暗中執行隱藏的提示而無須與使用者互動。
  • 此攻擊方式是使用內嵌隱形提示注入技巧 (例如將提示嵌入 HTML 註解當中,或使用白底白色文字),以便在後續階段誤導 GenAI 的解讀。
  • 它示範了某些 GenAI 功能隱含的廣泛性風險,例如:摘要、RAG (檢索增強生成) 以及情境繼承。
  • 這起事件突顯出,不僅 AI 模型本身的保護相當重要,保護它與企業資料互動的環境 (如電子郵件和 SaaS 平台) 也很重要。這些周邊系統如果沒有受到保護,AI 工具就可能成為重大資料外洩和違規事件的發生途徑。
  • Trend Vision One™ 採用 AI 驅動的 Email and Collaboration Security (電子郵件及協同作業防護) 來防範這類威脅,藉由交叉關聯情報偵測來轉化人類情報、檢查電子郵件意圖、分析使用者行為,以及交叉關聯可疑徵兆。
  • 在 GenAI 存取控管方面,Trend Vision One ™ 可藉由 Zero Trust Secure Access (ZTSA) 零信任安全存取來保護使用者的安全。其 AI Service Access 功能可檢查 GenAI 的提示和回應來防止潛在的資料外洩,並確保 GenAI 提示和回應的使用安全以防止潛在的資料外洩。

⟫ 完整文章

隨著 AI 重塑現代軟體架構,企業必須重新思考其安全策略,從被動防禦轉向主動預測和即時反應,以確保在利用 AI 創造價值的同時,能有效管理風險。
聽聽趨勢科技執行長暨共同創辦人陳怡樺(Eva Chen)怎麼說?
請參閱完整的白皮書:《The Intelligent Stack: Industry Briefing》
繼續閱讀

趨勢科技警告:數以千計的AI伺服器正暴露在網路上

最新研究顯示基礎架構層的風險正因各種不同的元件而持續攀升

【2025年8月12日,台北訊】全球網路資安領導廠商趨勢科技(東京證券交易所股票代碼:4704)呼籲AI工程師與IT領導人應妥善建立程式開發最佳實務原則並部署安全系統,否則公司將暴露於資料竊取、資料下毒、網路勒索等其他攻擊的風險當中。

進一步了解資安人員及駭客如何運用AI,請閱讀「趨勢科技2025上半年AI資安現況報告」(Trend State of AI Security Report, 1H 2025)

【圖說一】趨勢科技最新研究警告:數以千計的AI伺服器正暴露在網路上
繼續閱讀

Slopsquatting:當 AI代理幻覺遇上惡意套件

本文探討 AI 程式設計助理如何因幻覺而生成出一些看似合理但實際上卻不存在的套件名稱,進而衍生能讓駭客預先設下陷阱的「slopsquatting」攻擊。此外,本文也提供一些企業可用來保護開發流程的實務策略。

下載這份技術摘要

主要重點

  • Slopsquatting 是現代化 AI 驅動軟體開發流程的一項供應鏈威脅,起因於 AI 程式設計代理因為幻覺而生成一些看似合理但實際上卻不存在的套件名稱,使得駭客有機會預先設下陷阱來散播惡意程式。
  • 儘管進階程式設計代理與工作流程,如:Claude Code CLI、OpenAI Codex CLI 以及 Cursor AI 搭配 MCP 作後端驗證,有助於降低幽靈相依元件 (phantom dependencies) 的風險,但仍無法徹底根除,因為就算即時驗證也無法捕捉每一種邊緣案例。
  • 常見的失敗情況包括:填補情境漏洞與模仿表面形式,也就是 AI 代理根據使用者的意圖與符合統計的慣例而捏造出看似合理的套件名稱,卻沒有確實檢查套件名稱是否真的存在。
  • 防範這類威脅需要從多重管道下手,結合最佳實務原則 (例如透過軟體物料清單來追蹤源頭)、自動化漏洞掃描、在沙盒模擬環境內測試安裝、即時驗證套件,以及人員監督,如此才能真正保護 AI 驅動的開發流程。

想像一下這樣的情境:您的開發時程相當緊迫,但您擁有一套可靠的 AI 程式設計助理來自動幫您完成函式撰寫、推薦可用相依元件,甚至幫您即時呼叫 pip 安裝指令。您正深深沉醉在所謂的「氛圍程式設計」(vibe coding) 開發流程當中,在 AI 的協助下,您的點子幾乎豪不費力就變成了程式碼,感覺就好像在變魔術一樣,直到一切突然停止運作。

在研究過程當中,我們曾看到一個進階 AI 代理自豪地無中生有了一個看似完全合理的套件名稱,但隨後卻在程式實際組建時發生「找不到模組」的窘境。然而更令人擔憂的是,這些幽靈套件說不定已經存在於 PyPI 當中,因為某個駭客已經註冊了這些套件名稱,等著開發人員上鉤,自己將惡意程式碼帶入工作流程當中。

圖 1:AI 代理幻想出一個根本不存在的套件名稱 (上演 slopsquatting)。

對 AI 開發人員來說,這些暫時性的錯誤不單只是造成不便而已,而是一種新式供應鏈攻擊的機會之窗。當 AI 代理幻想出不存在的相依元件或安裝未經檢查的套件時,就等於為slopsquatting 創造了機會,因為駭客會在公開登錄上預先註冊這些幻想出來的名稱。

本文探討這些幻覺是如何出現在進階 AI 代理當中,並說明其潛在的影響,提供企業一些維護開發流程安全以防範類似威脅的行動建議。

何謂 slopsquatting?

繼續閱讀

揭發 AI 代理的漏洞 (5-5):保護 LLM 服務

這是有關代理式 AI 漏洞議題的最後一篇文章,本文探討對 AI 代理造成威脅的各種新興漏洞,主要是提供主動式資安建議來防範程式碼執行、資料外傳以及資料庫存取等方面的漏洞。

大型語言模型 (LLM) 已日益成為現代化應用程式的一環,其安全性比以往更加重要。我們在先前幾篇文章已討論過可能對 AI 代理造成威脅的新興漏洞,主要聚焦在程式碼執行、資料外傳以及資料庫存取等領域。

本系列的最後一篇,我們將探討如何應對這些威脅所帶來的挑戰,以及我們為何需要嚴密的多層式策略來保護這些系統。本系列其他文章還有:

  • 第一篇:揭發 AI 代理的漏洞 ─ 介紹 AI 代理的主要資安風險,例如:提示注入與執行未經授權的程式碼,並摘要說明後續討論的議題架構,包括:資料外傳、資料庫漏洞攻擊,以及防範策略。
  • 第二篇:程式碼執行漏洞 ─ 探討駭客將如何利用 LLM 驅動服務的弱點來執行未經授權的程式碼、避開沙盒模擬環境的限制,以及利用錯誤處理機制的漏洞,進而導致資料外洩、未經授權的資料傳輸,以及取得執行環境的永久存取權限。
  • 第三篇:資料外傳:探討駭客如何利用間接提示注入,讓 GPT-4o 這類多模態 LLM 在遇到看似無害的惡意檔案時將機敏資料外傳。這種所謂的「零點選」(zero-click) 漏洞可讓駭客在網頁、圖片及文件中暗藏指令,誘騙 AI 代理洩露使用者互動記錄、上傳檔案,以及聊天記錄當中的機密資訊。
  • 第四篇:資料庫存取漏洞 ─ 探討駭客如何攻擊與 LLM 整合的資料庫系統,透過 SQL 隱碼注入、預先儲存的提示注入,以及向量儲存下毒來取得管制的資料,同時還能避開認證機制。駭客可利用提示篡改來影響查詢結果、取得機密資訊,或者插入永久性漏洞來影響未來的查詢。

防範程式碼執行漏洞

繼續閱讀

揭發 AI 代理的漏洞 (5-4):資料庫存取漏洞

駭客如何攻擊具備資料庫存取能力的 AI 代理?本文探討駭客如何利用 SQL 生成漏洞、預先儲存的提示注入,以及向量儲存下毒等手法來從事詐騙活動。

大型語言模型 (LLM) 服務有可能變成網路攻擊的入口嗎?可執行程式碼的 LLM 有可能被挾持用來執行有害指令嗎?Microsoft Office 文件中暗藏的指令能不能騙過 LLM,讓它洩漏敏感的資料?駭客有多容易篡改資料庫查詢敘述來取得管制的資訊?

這些都是 LLM 服務今日面臨的一些基本問題。本系列文章討論 LLM 服務的重大漏洞,深入揭發其看似聰明的回應底下所潛藏的威脅。

下載研究報告

Technical Brief
繼續閱讀