「AI 攻擊工業化!」趨勢科技曝 2026 三大資安趨勢:攻擊自動化、鎖定多雲/供應鏈、治理成破口

AI工業化推升攻擊自動化,多雲與供應鏈仍為駭客主戰場,企業治理破口 AI攻擊跳板主動式防禦、提高可視性成企業資安治理關鍵

【2025年12月8日,台北訊】企業正積極擁抱各類AI工具,提升營運效率,但在部署AI的同時,一不小心也可能讓潛在入侵者在企業環境中「內建」攻擊能力,讓威脅得以迅速擴散。全球網路資安解決方案領導廠商趨勢科技(東京證券交易所股票代碼:4704)今日公布2026資安年度預測報告指出,隨著企業全面導入AI、流程自動化、多雲架構與第三方服務,同時AI正從單純輔助工具逐步邁向高度自主的「工業化」階段,企業防禦與駭客進攻成了一場勢均力敵的「競速賽」。而企業內部的錯誤設定、技術債與缺乏可視性等既有挑戰,更可能成為攻擊快速擴散的加速器。

趨勢科技Trend Vision One™旗艦資安平台具備資安曝險管理(CREM)、資安營運以及強大的多層式防護能力,透過其完整的可視性與風險導向架構,企業不僅能提前洞悉潛在弱點、降低AI工業化所帶來的威脅,更能在攻擊尚未成形前即及時防範,加速實現真正的主動式資安。
欲瞭解更多趨勢科技2026年資安預測完整內容,請至:資安威脅AI化
繼續閱讀

趨勢科技攜手NVIDIA推出針對代理式AI系統的端對端防護方案

透過無代理EDR與整合式防護欄,從基礎架構到應用層全面延伸代理式AI資安防護,守護新世代AI工廠

全球網路資安領導廠商趨勢科技(東京證券交易所股票代碼:4704)宣布與NVIDIA BlueField展開全新整合,將防護直接嵌入資料中心層級,為AI工廠提供更安全且具擴展性的防護。此全新方案讓企業能更快速部署AI,同時降低多租戶AI雲環境中的風險,並符合嚴格的合規要求。

了解更多有關Trend Vision One™ Endpoint Security與NVIDIA BlueField DPU的整合方案,請參閱:https://www.trendmicro.com/zh_tw/business/ai/factory.html

NVIDIA BlueField資料處理單元(DPU)是一款專為從中央處理器(CPU)分擔、加速及隔離基礎架構與資安任務而設計的處理器。Trend Vision One™ Endpoint Security(AI Factory端點偵測與回應,EDR)部署於NVIDIA BlueField上,能蒐集並監控主機與網路資訊,並與趨勢科技威脅情報進行關聯分析,以偵測可疑行為。除了此次與BlueField整合外,趨勢科技也是首批通過NVIDIA RTX PRO Server驗證的資安廠商之一,為AI工廠帶來專為企業級環境打造的資安防護。

繼續閱讀

趨勢科技警告:數以千計的AI伺服器正暴露在網路上

最新研究顯示基礎架構層的風險正因各種不同的元件而持續攀升

【2025年8月12日,台北訊】全球網路資安領導廠商趨勢科技(東京證券交易所股票代碼:4704)呼籲AI工程師與IT領導人應妥善建立程式開發最佳實務原則並部署安全系統,否則公司將暴露於資料竊取、資料下毒、網路勒索等其他攻擊的風險當中。

進一步了解資安人員及駭客如何運用AI,請閱讀「趨勢科技2025上半年AI資安現況報告」(Trend State of AI Security Report, 1H 2025)

【圖說一】趨勢科技最新研究警告:數以千計的AI伺服器正暴露在網路上
繼續閱讀

Slopsquatting:當 AI代理幻覺遇上惡意套件

本文探討 AI 程式設計助理如何因幻覺而生成出一些看似合理但實際上卻不存在的套件名稱,進而衍生能讓駭客預先設下陷阱的「slopsquatting」攻擊。此外,本文也提供一些企業可用來保護開發流程的實務策略。

下載這份技術摘要

主要重點

  • Slopsquatting 是現代化 AI 驅動軟體開發流程的一項供應鏈威脅,起因於 AI 程式設計代理因為幻覺而生成一些看似合理但實際上卻不存在的套件名稱,使得駭客有機會預先設下陷阱來散播惡意程式。
  • 儘管進階程式設計代理與工作流程,如:Claude Code CLI、OpenAI Codex CLI 以及 Cursor AI 搭配 MCP 作後端驗證,有助於降低幽靈相依元件 (phantom dependencies) 的風險,但仍無法徹底根除,因為就算即時驗證也無法捕捉每一種邊緣案例。
  • 常見的失敗情況包括:填補情境漏洞與模仿表面形式,也就是 AI 代理根據使用者的意圖與符合統計的慣例而捏造出看似合理的套件名稱,卻沒有確實檢查套件名稱是否真的存在。
  • 防範這類威脅需要從多重管道下手,結合最佳實務原則 (例如透過軟體物料清單來追蹤源頭)、自動化漏洞掃描、在沙盒模擬環境內測試安裝、即時驗證套件,以及人員監督,如此才能真正保護 AI 驅動的開發流程。

想像一下這樣的情境:您的開發時程相當緊迫,但您擁有一套可靠的 AI 程式設計助理來自動幫您完成函式撰寫、推薦可用相依元件,甚至幫您即時呼叫 pip 安裝指令。您正深深沉醉在所謂的「氛圍程式設計」(vibe coding) 開發流程當中,在 AI 的協助下,您的點子幾乎豪不費力就變成了程式碼,感覺就好像在變魔術一樣,直到一切突然停止運作。

在研究過程當中,我們曾看到一個進階 AI 代理自豪地無中生有了一個看似完全合理的套件名稱,但隨後卻在程式實際組建時發生「找不到模組」的窘境。然而更令人擔憂的是,這些幽靈套件說不定已經存在於 PyPI 當中,因為某個駭客已經註冊了這些套件名稱,等著開發人員上鉤,自己將惡意程式碼帶入工作流程當中。

圖 1:AI 代理幻想出一個根本不存在的套件名稱 (上演 slopsquatting)。

對 AI 開發人員來說,這些暫時性的錯誤不單只是造成不便而已,而是一種新式供應鏈攻擊的機會之窗。當 AI 代理幻想出不存在的相依元件或安裝未經檢查的套件時,就等於為slopsquatting 創造了機會,因為駭客會在公開登錄上預先註冊這些幻想出來的名稱。

本文探討這些幻覺是如何出現在進階 AI 代理當中,並說明其潛在的影響,提供企業一些維護開發流程安全以防範類似威脅的行動建議。

何謂 slopsquatting?

繼續閱讀

揭發 AI 代理的漏洞 (5-5):保護 LLM 服務

這是有關代理式 AI 漏洞議題的最後一篇文章,本文探討對 AI 代理造成威脅的各種新興漏洞,主要是提供主動式資安建議來防範程式碼執行、資料外傳以及資料庫存取等方面的漏洞。

大型語言模型 (LLM) 已日益成為現代化應用程式的一環,其安全性比以往更加重要。我們在先前幾篇文章已討論過可能對 AI 代理造成威脅的新興漏洞,主要聚焦在程式碼執行、資料外傳以及資料庫存取等領域。

本系列的最後一篇,我們將探討如何應對這些威脅所帶來的挑戰,以及我們為何需要嚴密的多層式策略來保護這些系統。本系列其他文章還有:

  • 第一篇:揭發 AI 代理的漏洞 ─ 介紹 AI 代理的主要資安風險,例如:提示注入與執行未經授權的程式碼,並摘要說明後續討論的議題架構,包括:資料外傳、資料庫漏洞攻擊,以及防範策略。
  • 第二篇:程式碼執行漏洞 ─ 探討駭客將如何利用 LLM 驅動服務的弱點來執行未經授權的程式碼、避開沙盒模擬環境的限制,以及利用錯誤處理機制的漏洞,進而導致資料外洩、未經授權的資料傳輸,以及取得執行環境的永久存取權限。
  • 第三篇:資料外傳:探討駭客如何利用間接提示注入,讓 GPT-4o 這類多模態 LLM 在遇到看似無害的惡意檔案時將機敏資料外傳。這種所謂的「零點選」(zero-click) 漏洞可讓駭客在網頁、圖片及文件中暗藏指令,誘騙 AI 代理洩露使用者互動記錄、上傳檔案,以及聊天記錄當中的機密資訊。
  • 第四篇:資料庫存取漏洞 ─ 探討駭客如何攻擊與 LLM 整合的資料庫系統,透過 SQL 隱碼注入、預先儲存的提示注入,以及向量儲存下毒來取得管制的資料,同時還能避開認證機制。駭客可利用提示篡改來影響查詢結果、取得機密資訊,或者插入永久性漏洞來影響未來的查詢。

防範程式碼執行漏洞

繼續閱讀