​AI代理工具爆資安漏洞 三大平台恐成企業資料外洩破口 

圖/本報資料庫

商傳媒|記者陳宜靖/台北報導最新研究揭露主流AI代理工具潛藏資安風險,透過提示注入攻擊手法,駭客可操控系統並竊取敏感資料,凸顯AI導入企業流程後,資安防護正面臨全新挑戰。

隨著AI代理(AI agents)快速導入開發與營運流程,資安風險也同步浮現。最新研究指出,包括Claude Code、Gemini CLI與GitHub Copilot等主流平台,均存在可被利用的安全漏洞,可能成為駭客滲透企業系統的新入口。

研究顯示,這些AI代理多與GitHub工作流程深度整合,具備讀取程式碼、執行任務與回應指令的能力。一旦遭到惡意操作,可能導致API金鑰、存取權杖與內部資料外洩,風險層級已不亞於傳統資安漏洞。

此次攻擊核心來自「提示注入」(prompt injection)技術的變形應用。研究團隊透過在Pull Request標題與內容中嵌入惡意指令,使AI代理在未察覺的情況下執行攻擊者預設行為,進而將敏感資訊回傳至外部。該方法被稱為「Comment and Control」,本質上是利用AI對文字指令的高度依賴,繞過既有安全機制。

值得注意的是,即便上述平台已內建部分提示注入防護機制,仍無法完全阻擋此類攻擊,顯示現行AI安全設計仍存在結構性弱點。研究人員指出,這類風險不僅限於個別產品,而可能擴散至所有具備自動化決策與外部資料存取能力的AI代理系統。

在企業實務應用上,AI代理已逐步承擔程式碼審查、自動部署與資料處理等關鍵任務,一旦權限控管不當,將可能擴大攻擊面。特別是在DevOps與CI/CD流程中,AI工具的自動化特性雖提升效率,但同時也降低了人工檢查的防線。

面對此類新型態風險,專家建議應重新定義AI資安治理架構。首先,需將AI代理視為「具風險的執行單位」,採取最小權限原則,避免授予過度存取能力;其次,應強化輸入來源驗證機制,降低惡意內容被系統誤判為合法指令的可能性。

此外,企業亦需建立AI操作監控與異常行為偵測機制,確保系統在執行非預期任務時能即時發現並中止。部分專家更指出,AI代理的安全管理應比照員工資安訓練,將其視為「數位員工」,納入整體資安策略中。

整體而言,AI代理的普及正在改變企業運作模式,同時也重新定義資安風險邊界。當AI從輔助工具進一步成為決策與執行角色,資安問題已不再只是技術層面,而是企業治理與風險管理的重要課題。


     

相關新聞

您可能有興趣

即時新聞

熱門新聞