知識分享

為何 AI 管治理如此重要?從近期 AI AGENT 事件的關鍵啟示

2026.04.10

一款於 2025 年推出的開源 AI 智能助手(AI Agent)在發布後迅速引起廣泛關注。其主要特點包括可於使用者本機裝置(如 PC 或 Mac)上運行,並能在一定程度上依據使用者指示自主執行任務。因此,該系統被視為新一代的個人 AI Agent,並在短時間內吸引了不少個人及企業用戶採用。

 

然而,在推出約六個月後,部分使用者開始反映並討論該 AI Agent 可能涉及的潛在問題及風險。與此同時,亦有本地機構就相關風險向公眾作出提示,以提升使用者對 AI 應用風險的認知。

 

本文將整理目前已被提出的主要關注事項,並進一步探討在 AI 應用日益普及的背景下,為何建立清晰且一致的 AI 管治機制,對企業及整體社會而言正變得愈來愈重要。

 

AI AGENT 概覽及已披露的主要風險

 

與主要用於回應查詢的 AI 聊天機械人(如 ChatGPT)不同,AI 智能助手的核心設計在於「執行行動」,而非僅限於「對話互動」。AI Agent 能根據既定指令主動採取行動,並可與多種外部工具及應用程式整合運作,包括即時通訊軟件、電子郵件系統、檔案管理平台,以至網上銀行與加密貨幣錢包等高敏感度系統。

 

同時,AI Agent 具備「長期記憶」能力,能跨越多個使用階段保留上下文資訊,例如用戶偏好、歷史決策及行為模式;透過可擴充的「技能(Skills)」模組,AI Agent 能調用 API、查詢資料庫,並操作其他應用程式,從而自行規劃與執行一連串動作以完成任務。

 

自推出以來,AI Agent 已在個人用戶及企業環境中被廣泛應用,以提升日常及複雜工作的效率,常見應用場景包括:

  • 自動掃描收件匣,並按緊急程度分類電子郵件
  • 草擬回覆內容供用戶審閱與調整
  • 與外部 AI 程式碼助理(如 Claude Code)整合,以加快軟件開發流程

 

然而,為使 AI Agent 得以執行上述行動,用戶往往需授予其高度系統權限(例如裝置管理員權限),並提供大量敏感資訊,包括電郵帳戶憑證及系統存取權限等。此類設計在提升效率的同時,亦顯著擴大了潛在風險面。

 

隨著AI Agent 迅速被廣泛採用,亦逐步出現一些與數碼信任相關的討論。部分使用者反映在使用過程中觀察到若干技術層面的情況與潛在風險,包括系統中被識別的漏洞(例如 CVE202625253)、個別操作行為的非預期結果(如重要電郵被刪除),以及涉及敏感資料處理的疑問(例如帳戶憑證或加密錢包資訊)。在此背景下,部分企業及使用者開始對該 AI Agent 的實際運作方式及其可靠性作出進一步評估。

 

鑑於上述風險,部分監管機構已發出正式提示,其中包括香港數字政策辦公室(DPO)、個人資料私隱專員公署(PCPD),以及中國內地的相關政府機構。

 

相關連結

 

代理式 AI 已趨勢,而管治正是關鍵推動力

 

  • AI Agent 有關事件提供了一些可討論的面向AI Agent反映 AI 應用發展的新階段: AI Agent 的應用情況顯示,使用者及組織正逐步探索更高自主程度的 AI 系統。在實際使用情境中,AI 的角色可能由輔助執行逐漸延伸至承擔更多執行層面的任務,而相關轉變的節奏可能因應技術成熟度及應用需求而有所不同。

 

  • 管治在 AI Agent 應用中的角色:在引入 AI Agent 系統時,管治架構與相關政策有助協助企業理解其運作方式及應用邊界。相關個案亦提供了一個背景,有助探討在不同應用情境下,企業如何透過合適的管理與制度安排來支持 AI 系統的使用。

 

安全引入 AI Agent 前,企業必須考慮的關鍵治層面

 

層面 描述
AI 角色與職責 清晰界定企業、高層、營運部門及員工於 AI Agent 採用與管理中的責任
問責機制 明確界定 AI Agent 行為的最終問責人,機器本身並不承擔法律責任
合規 確保 AI Agent 全生命週期符合相關 AI 法例及監管要求(如《EU AI Act》)
風險評估 系統化識別 AI Agent 對業務、用戶及社會的潛在風險,並制定對應控制措施
負責任的 AI 開發 不論自研或外購,均須確保 AI Agent 在公平性、穩健性、安全性、隱及數據管理等方面符合最佳實踐
可信度核查 可審及核查支撐 AI Agent 的大型語言模型(LLM)是否可靠、不歧視且可預測
人為監督 明確哪些任務可全自動執行,哪些必須有人為覆核(Human‑in‑the‑Loop
透明度 確保 AI Agent 的決策與行動均有紀錄、可追溯且具解釋性
持續監察 建立即時監察與評估機制,確保 AI Agent 於動態環境中保持預期表現
事故應對 制定 AI 事故通報、應變及事後檢討機制
 

 

AI 管治框架與最佳實踐指引

 

回應上述各項 AI 管治需求,並非一次性或短期行動,而是需要企業持續建立、完善及成熟其管治架構與內部能力的長期過程。鑑於企業規模、行業屬性及 AI 應用情境各異,AI 管治並不存在「一體適用」的單一模式。

 

為協助企業設計切合自身風險狀況與策略目標的 AI 管治框架,業界已發展出多項具權威性的國際標準與框架,為企業提供實務指引:

 

  • 《歐盟人工智能法案》(EU AI Act: 是全球首個具全面性及法律約束力的 AI 法規框架,旨在確保於歐盟市場使用的 AI 系統在安全性、合乎道德及尊重基本人權方面符合明確要求。該法案採用風險導向管理模式,禁止屬於「不可接受風險」的 AI 應用(例如執法機構於公共空間進行大規模即時監控),並對「高風險 AI 系統」施加更為嚴格的治、透明度及合規義務。

 

  • ISO/IEC 42001:2023 : 全球首個可認證的人工智能管理體系國際標準,為企業建立、實施、維持及持續改進 AI 管治提供系統化方法。該標準涵蓋 AI 風險管理、倫理考量及合規要求,並要求企業明確界定其於 AI 生態系統中的角色(如 AI 提供者、開發者或使用者)。透過第三方認證審核,企業可向持份者具體展示其對負責任 AI 與良好管治實踐的承諾。

 

  • NIST AI 風險管理框架(AI RMF: 由美國國家標準與技術研究院(NIST)發布的自願性框架,協助企業 AI 全生命週期內系統化識別、評估、管理及監察風險。該框架以四大核心功能為基礎 治(Govern)」、「界定(Map)」、「衡量(Measure)」及「管理(Manage)」,強調可信度、透明度及問責性,並為企業提供可操作的風險管治路徑。

 

總結

 

有關 AI Agent 事件反映了自主型 AI 在實際應用中的多重面向。其技術能力為業務運作帶來新的應用可能,同時亦提出了在管理、風險與責任分工方面需要加以考量的課題。透過參考《歐盟人工智能法案》(EU AI Act)、ISO/IEC 42001:2023 NIST AI 風險管理框架(AI RMF)等既有框架,企業可在規劃及實施 AI Agent 時,建立較為系統化的管理與管治安排。展望未來,隨着 AI 技術及應用場景持續演進,定期檢視及調整相關管治框架,將有助企業回應新情況,並支持 AI 系統在不同持份者關注下的持續應用。