AI Governance Landscape — 2026-02

本月重點:EU AI Act 勘誤明確線上空間不適用(directly_applicable)、EuroHPC 擴展至 AI Gigafactories 投資 41.2 億歐元強化技術主權、NIST 發布首個 AI 網路安全框架配置檔草案(NISTIR 8596)、CSA 連續發布 Agentic AI 治理指引標誌 AI 代理治理成為獨立領域。

本期追蹤 22 項 AI 治理動態,涵蓋 NIST 框架(4 項)、NIST 洞察(3 項)、歐盟法規(4 項)、CSA 雲端安全(11 項)。

免責聲明

本報告由 AI 系統自動產出,基於公開資料源萃取與結構化分析。 內容僅供參考,不構成法律或合規建議。所有資訊應以原始發布機構 的正式文件為準。標註「[系統推論]」之內容為系統推論,尚未經人工驗證。


本月重點

EU AI Act 發布第二次勘誤,明確排除線上空間(online spaces)適用範圍,修正原條文關鍵錯誤,此修正為 directly_applicable 且具實質影響,將改變 AI 系統在線上環境部署時的合規義務判定。

  1. 歐盟 AI Act 勘誤發布 — EU 於 2026-01-13 發布 Regulation (EU) 2024/1689 勘誤,明確排除線上空間適用範圍,修正原條文錯誤描述。此次勘誤具實質影響,原文誤將線上空間納入適用範圍,修正後明確「線上空間不在適用範圍內,因其並非實體空間」。(來源:EU,rule_type: amendment,enforcement: mandatory,binding_force: directly_applicable)

  2. 歐盟 AI Gigafactories 建立框架 — Council Regulation (EU) 2026/150 修正 EuroHPC Joint Undertaking,擴展至 AI gigafactories 與量子運算基礎設施,聯盟出資增至 41.2 億歐元。新增職責包括:建立與營運 AI gigafactories、授予「EuroHPC AI and Compute Infrastructure Seal」、管理會員國 RRF 貢獻與存取時間分配。會員國須於 2026-08-31 前完成 RRF 資金轉移。(來源:EU,rule_type: amendment,enforcement: mandatory)

  3. NIST AI 網路安全框架草案發布 — NIST 於 2025-12-16 發布 NISTIR 8596 草案「Draft NIST Guidelines Rethink Cybersecurity for the AI Era」,為首個整合 CSF 與 AI RMF 的 AI 網路安全框架配置檔,涵蓋三大領域:保護 AI 系統、使用 AI 強化防禦、抵禦 AI 驅動攻擊。公眾意見徵詢至 2026-01-30,歷經 6,500 名社群成員參與。(來源:NIST,rule_type: draft,status: public_comment)

  4. Agentic AI 治理框架湧現 — CSA 發布多項 Agentic AI 治理指引,包括「Agentic Trust Framework」建立 AI 代理專用 Zero Trust 架構、「Levels of Autonomy」分級治理框架、以及「From Security to Proof of AI Trust」的信任證明機制,標誌 AI 自主系統治理進入實務階段。(來源:CSA,rule_type: guidance,enforcement: recommended)

  5. 非人類身分治理成為焦點 — CSA 與 Strata Identity 調查顯示組織正處於「Time-to-Trust」階段,需擴展 IAM 架構以容納 AI 代理。傳統 IAM 框架不足以應對當代 agentic workforce 的規模化需求。(來源:CSA,rule_type: guidance)

「組織在採用 AI 時必須同步發展網路安全策略,涵蓋保護 AI 系統、使用 AI 強化防禦操作,以及建立對抗 AI 驅動攻擊的韌性。」 NIST, Draft NISTIR 8596 (2025-12-16)
「執行時控制是新邊界(Runtime control is the new perimeter)。AI 代理以每分鐘 5,000 次操作的速度運行,傳統以人為核心的同意式授權架構已不適用,必須轉向自動化、政策驅動的即時執行授權。」 Cloud Security Alliance, AI Security: IAM Delivered at Agent Velocity (2026-02-11)

區域動態比較

美國(NIST)

NIST 發布 NISTIR 8596 AI 網路安全框架草案,為首個整合 Cybersecurity Framework 與 AI RMF 的配置檔,並透過 NCCoE 系列工作坊持續推動 Cyber AI Profile 發展。

NIST Frameworks(4 項)

文件 發布日期 Document ID 狀態 重點
Draft NIST Guidelines Rethink Cybersecurity for the AI Era 2025-12-16 NISTIR 8596 public_comment 首個 AI 網路安全框架配置檔,整合 CSF 與 AI RMF,涵蓋保護 AI 系統、AI 驅動防禦、對抗 AI 攻擊三大領域
NIST Launches Centers for AI in Manufacturing and Critical Infrastructure 2025-12-22 final 新設兩個 AI 經濟安全中心,負責製造業生產力提升與關鍵基礎設施防護,與 MITRE 合作開發 AI 代理工具($20M MITRE + $70M Manufacturing USA)
Lessons Learned: Tool Use in Agent Systems 2025-08-05 final CAISI/NIST 工作坊成果,AI 代理工具標準化分類法(七種方法:功能性、存取模式、風險導向、可靠性、模態、監控、自主性)
NCCoE Cyber AI Profile: Securing AI System Components 2025-08-05 CSF 2.0 Core public_comment AI 系統元件安全工作坊,組織需擴展資安治理框架涵蓋 AI 系統元件威脅與脆弱性

NIST Cybersecurity Insights(3 項)

文件 發布日期 重點
Reflections from the First Cyber AI Profile Workshop 2025-07-31 CSF 與 AI RMF 整合 Profile 工作坊,支援三大情境:AI 資安防護、防禦 AI 攻擊、保護 AI 系統
Cybersecurity and AI: Integrating and Building on Existing NIST Guidelines 2025-05-22 整合 CSF 與 AI RMF profiles 構想,涵蓋三場景
Managing Cybersecurity and Privacy Risks in the Age of Artificial Intelligence 2024-09-19 NIST AI 資安隱私風險管理專案啟動

美國(CSA Cloud Security Alliance)

本期 CSA 發布 11 項 AI 安全治理指引,成為最活躍的指引來源:

文件 日期 Category 重點
AI Security: IAM Delivered at Agent Velocity 2026-02-11 ai_security AI 代理以每分鐘 5,000 次操作運行,傳統同意式授權架構已不適用,必須轉向自動化政策驅動的即時執行授權
Applying MAESTRO to Real-World Agentic AI Threat Models 2026-02-03 ai_security MAESTRO 7 層架構威脅建模框架,整合至 CI/CD pipeline,傳統 SAST/STRIDE 無法識別 agentic AI 跨層信任邊界違規
Time-to-Trust Survey 2026-02-03 identity IAM 架構需擴展以容納 AI 代理,傳統 IAM 框架不足以應對 agentic workforce
Agentic Trust Framework (ATF) 2026-01-29 ai_security 首個 AI 代理零信任治理規範
提升代理式 AI 的自主性等級 2026-01-26 ai_security AI 自主性層級分類與治理
What if AI Knew When to Say ‘I Don’t Know’? 2026-01-21 ai_security AI 不確定性校準與內在感知
From Security to Proof of AI Trust 2026-01-13 ai_security AI 信任證明機制設計
Global Privacy Trends 2026 2026-01-13 compliance 全球隱私合規進入新階段,執法趨嚴,AI 採用審查增加
Top 10 Predictions for Agentic AI 2026-01-12 ai_security 2026 年 Agentic AI 趨勢預測,自我改進系統興起
First Question Security Should Ask 2026-01-09 best_practices 安全團隊需以「Why」問題引導 AI 專案,避免 FOMO 驅動採用
What AI Risks Are Hiding in Your Apps? 2026-01-06 ai_security 應用程式嵌入式 AI 風險識別,Gartner 預測 2028 年 95%+ 企業使用生成式 AI

歐盟

EU AI Act 發布第二次勘誤,明確排除線上空間適用範圍;同時 EuroHPC 擴展至 AI Gigafactories,投資 41.2 億歐元強化技術主權。

法規 發布日期 Document ID 類型 binding_force 重點
Corrigendum to AI Act (EU) 2024/1689 R(02) 2026-01-13 CELEX:32024R1689 amendment directly_applicable 修正 recital 19:明確排除線上空間適用範圍(effective: 2025-12-19)
Council Regulation (EU) 2026/150 2026-01-23 CELEX:32026R0150 amendment directly_applicable 擴展 EuroHPC JU 至 AI gigafactories 與量子技術,41.2 億歐元(effective: 2026-01-20)
Regulation (EU) 2026/150 (duplicate entry) 2026-01-19 CELEX:32026R0150 amendment directly_applicable 同上,發布於 Official Journal
Corrigendum to (EU) 2024/1732 R(02) 2026-01-27 CELEX:32024R1732 corrigendum binding_regulation 術語更正:「AI factory」改為「AI facility」(愛沙尼亞語版本)

EU AI Act 適用範圍修正重點

  • 修正內容:原文誤將「線上空間納入適用範圍」,勘誤後明確「線上空間不在適用範圍內,因其並非實體空間」
  • 影響對象:AI 系統提供者、部署者、線上平台營運者、國家主管機關
  • 實務影響:AI 系統在線上環境部署時的合規義務需重新評估

EuroHPC AI Gigafactories 架構重點

  • 新增職責:建立與營運 AI gigafactories、授予「EuroHPC AI and Compute Infrastructure Seal」、管理會員國 RRF 貢獻
  • 財務規模:聯盟出資從 12 億歐元增至 41.2 億歐元
  • 時程關鍵:會員國 RRF 資金轉移截止 2026-08-31;每年 1 月 31 日 Consortia 提交年度稽核報告
  • 與 EU AI Act 銜接:AI gigafactories 運作須符合 Regulation (EU) 2024/1689 要求

責任變動追蹤

來源 文件 affected_roles shift_type shift_summary
EU AI Act Corrigendum R(02) AI system providers, deployers, online platform operators, national competent authorities clarified 明確排除線上空間適用範圍,因其並非實體空間
EU Council Regulation 2026/150 EuroHPC JU, Member States, AI gigafactory consortia, SMEs, start-ups, researchers expanded 擴展 EuroHPC 至 AI gigafactories 與量子技術,41.2 億歐元投資強化技術主權
EU EuroHPC AI Initiative Corrigendum AI startups, EuroHPC participants, Member States clarified 術語更正(factory-facility),無實質義務變更
CSA Agentic Trust Framework (ATF) Security Engineers, Enterprise Architects, Business Leaders, AI System Developers new 引入 AI 代理專用 Zero Trust 治理規範
CSA AI Security: IAM Delivered at Agent Velocity 安全/IAM 團隊、SOC 團隊、合規/GRC 團隊、執行領導層 expanded AI 代理以每分鐘 5,000 次操作運行,傳統同意式授權架構已不適用
CSA MAESTRO Real-World Threat Models 安全團隊、開發人員、AppSec 團隊、雲端架構師 new 傳統威脅建模工具無法識別 agentic AI 跨層信任邊界違規,需採用 MAESTRO 框架
CSA Time-to-Trust Survey CISO, IAM Architects, Security Engineers, Enterprise Architects expanded IAM 架構需擴展以容納 AI 代理
CSA From Security to Proof of AI Trust Security Engineers, Enterprise Architects, Audit Teams, AI System Owners expanded 自主 AI 系統需建立信任證明機制
CSA What if AI Knew When to Say I Don’t Know AI System Developers, Security Engineers, AI Governance Teams, Product Managers new AI 系統需內建不確定性校準機制
CSA Global Privacy Trends 2026 DPO, Privacy Officers, Compliance Teams, Legal Counsel, Security Architects expanded 全球隱私合規進入新階段,執法趨嚴,AI 採用審查增加
CSA What AI Risks Are Hiding in Your Apps Application Security Teams, AI Risk Officers, Security Operations, API Security Teams expanded 需識別與管理應用程式嵌入式 AI 風險
CSA First Question Security Should Ask Security Teams, AI Project Leaders, Business Stakeholders, Risk Officers clarified 安全團隊需以「Why」問題引導 AI 專案
CSA Top 10 Predictions for Agentic AI AI Security Officers, Enterprise Architects, Security Researchers, Business Leaders informational 2026 為 Agentic AI 全面轉型年,需準備應對自我改進系統
NIST Draft NISTIR 8596 Organizations at any stage of AI adoption, cybersecurity professionals, all sectors new 建立首個 AI 網路安全框架配置檔
NIST Lessons Learned: Tool Use in Agent Systems AI developers, deployers, downstream users, researchers clarified 需採用標準化分類法描述代理工具能力與限制
NIST NIST Launches AI Centers AI developers, manufacturing organizations, critical infrastructure operators new 新設製造業與關鍵基礎設施 AI 經濟安全中心
NIST Managing Cybersecurity and Privacy Risks in AI Age AI developers, deployers, cybersecurity/privacy professionals expanded 資安隱私專業人員需整合 AI RMF 管理新風險
NIST Reflections from Cyber AI Profile Workshop cybersecurity and AI communities, AI system operators expanded CSF 與 AI RMF 整合 Profile 發展中

義務與舉證要求

新增義務摘要

主要新義務涵蓋四大領域:(1) 依 NISTIR 8596 草案發展 AI 網路安全策略;(2) 採用標準化分類法描述 AI 代理工具能力與限制;(3) 建立 AI 代理專用 Zero Trust 治理框架;(4) 擴展 IAM 架構以容納 AI 代理。

歐盟(EU)

  • EuroHPC Joint Undertaking 擴展至建立與營運 AI gigafactories
  • Joint Undertaking 須成立公共治理機構、管理會員國 RRF 貢獻及存取時間分配
  • 會員國須在徵件前承諾資助、提交書面接受聲明,可在 2026-08-31 前分配 RRF 資金
  • AI Gigafactory Consortia 須符合技術/環境/安全標準、確保主機協議符合歐盟法律
  • 建立 AI 處理器採購框架合約
  • AI 系統提供者與部署者需重新評估線上環境的合規義務(AI Act 勘誤)

美國(NIST)

  • 組織採用 AI 時須同步發展網路安全策略(NISTIR 8596 草案)
  • 保護 AI 系統、使用 AI 強化防禦、建立對抗 AI 驅動攻擊韌性
  • AI 系統開發者與部署者需採用標準化分類法描述代理工具能力與限制
  • 採用七種分類方法(功能性、存取模式、風險導向、可靠性、模態、監控、自主性)
  • 整合 AI RMF 管理新風險,擴展傳統資安隱私職責

產業指引(CSA)

  • 建立 AI 代理專用 Zero Trust 治理框架(ATF)
  • 擴展 IAM 架構以容納 AI 代理,因傳統 IAM 框架不足以應對 agentic workforce
  • 實施細粒度授權(relationship-based access controls)與任務範圍憑證(5-15 分鐘短期 token)
  • 採用 MAESTRO 框架進行 agentic AI 威脅建模,整合至 CI/CD pipeline
  • 對 RAG/記憶體系統視為潛在注入向量進行建模
  • 識別與管理應用程式內嵌 AI 風險
  • 建立 AI 系統不確定性校準機制
  • 安全團隊需以「Why」問題引導 AI 專案,避免 FOMO 驅動採用
  • 自主 AI 操作(程式碼執行、基礎設施變更、財務交易)風險評估
  • 準備應對自我改進 AI 系統的威脅態勢演變

舉證要求摘要

歐盟(EU)

  • Consortia 甄選:技術評估(基礎設施品質、工作計畫、永續性)、影響評估(歐盟附加價值、戰略自主性)、財務可行性
  • 持續合規:年度稽核報告(每年 1 月 31 日前)、SLA、治理機構批准紀錄
  • 實體空間與線上空間之分類證明文件
  • AI 系統部署環境說明文件

美國(NIST)

  • AI 網路安全策略文件
  • AI 系統安全評估
  • AI 代理工具能力與限制分類文件
  • 工具分類映射(依功能、存取模式或多維度交集)
  • 監控與日誌機制文件

產業指引(CSA)

  • ATF 實施文件與稽核日誌
  • IAM 架構評估報告
  • AI agent 身分管理政策
  • 即時授權決策記錄與代理操作稽核軌跡
  • 機器可讀的 MAESTRO layer 分類
  • 自動化威脅掃描結果整合至 CI/CD pipeline
  • 跨層威脅鏈追蹤記錄
  • AI 系統不確定性校準文件
  • 應用程式 AI 風險評估報告

L5 — Evolution Signals

三大趨勢浮現:(1) AI 代理治理成為獨立領域;(2) 美歐在 AI 基礎設施投資呈現分歧策略;(3) AI 風險管理從合規導向轉向信任證明。

  1. [系統推論] AI 代理治理成為獨立領域 — 本期 CSA 連續發布 Agentic Trust Framework、Levels of Autonomy、Time-to-Trust Survey 等指引,顯示 AI 代理(Agentic AI)已從 AI 治理的子議題,演化為需要專門框架的獨立領域。傳統身分治理(IAM)架構正在針對非人類身分與自主代理進行根本性調適。NIST 的「Lessons Learned: Tool Use in Agent Systems」提出七種分類法,同樣反映此領域的成熟化趨勢。

  2. [系統推論] 美歐在 AI 基礎設施投資呈現分歧策略 — 歐盟透過 EuroHPC 修正案建立「AI gigafactories」集中式投資框架(41.2 億歐元),強調技術主權與戰略自主,明確要求 AI gigafactories 須符合 EU AI Act;美國 NIST 則採分散式策略,發布 NISTIR 8596 草案聚焦框架整合(CSF + AI RMF),並新設製造業與關鍵基礎設施 AI 經濟安全中心。兩區域均重視 AI 安全,但路徑呈現「集中式基礎設施投資 vs. 分散式框架整合」的分歧。

  3. [系統推論] AI 風險管理從「合規導向」轉向「信任證明」 — CSA「From Security to Proof of AI Trust」提出從安全到信任證明的典範轉移。當 AI 系統以超越人類速度執行自主操作時,傳統安全協議已不足夠,新典範強調 AI 系統需「證明其可信」而非「被動保護」。CSA/Strata Identity 調查顯示企業正處於「Time-to-Trust」階段,凸顯此轉型的急迫性。


統計

指標 數值
總變動數 22
來源分布 CSA: 11, EU: 4, NIST Frameworks: 4, NIST Insights: 3
rule_type 分布 guidance: 13, amendment: 3, new: 2, draft: 1, corrigendum: 1, unknown: 2
enforcement_signal 分布 recommended: 12, mandatory: 2, informational: 4, unknown: 4
REVIEW_NEEDED 0 筆

資料來源

Layer Category 筆數 時間範圍
csa_cloud_security ai_security, identity, compliance, best_practices 11 2026-01-06 ~ 2026-02-11
eu_regulations ai_governance, critical_infrastructure 4 2026-01-13 ~ 2026-01-27
nist_frameworks ai_risk 4 2025-08-05 ~ 2025-12-22
nist_cybersecurity_insights ai_risk 3 2024-09-19 ~ 2025-07-31

報告產出時間:2026-02-18