
【INDEX News 劉俊彥】
2025年7月,美國與歐盟通過 Trade and Technology Council(TTC)協議,攜手推動AI 監管聯合機制,目標建立全球 AI 規範標準。報導解析合作內容、雙方差異與影響,探討其對科技與產業的深遠意義。2025年7月,美國與歐盟透過 TTC 框架正式啟動AI 監管聯合機制,致力打造一套兼顧創新與安全的全球 AI 標準。
美國與歐盟攜手建立 AI 標準體系
根據 Brookings 報告,美歐在 Trade and Technology Council 中同意合作發展AI 標準與方法論,並共同研究 AI 潛在風險,同時促進跨國技術治理與標準統整。
聯合計畫方向包括:大型語言模型測試、推薦演算法透明度與 AI 風險分類標準,以期達成一致界定與相互認證機制。
EU AI Act 與美國監管策略差異力求整合
歐盟早於2024年即實施《AI法案》(AI Act),並於今年7月發布「通用 AI 行為守則」(GPAI Code of Practice),強調透明、安全與版權保護。該守則規定廠商須公開訓練數據摘要、進行對抗測試等,並對系統性高風險模型施加義務。
美國方面,仍依賴現有法律與行政命令(如2023年與2025年AI聯邦政策),目前尚未制定聯邦層級 AI 法案。但透過 TTC 雙方承諾加強合作,推進共通標準制定。
主要科技公司態度差異與簽署情形
歐盟守則目前已獲 OpenAI 與 Microsoft 表示為簽署方,美方科技巨頭積極響應。但 Meta 已公開否認簽署,擔憂規範過於不確定並可能抑制創新。
歐盟期望透過此行動促成所稱「布魯塞爾效應」(Brussels Effect),影響全球 AI 業者符合更高標準。
AI 行動機制將涉多層次合作與時間表
根據歐盟網站,今年7月10日發布最終 GPAI 守則,8月2日開始正式生效,2026年則全面應用於所有通用 AI 模型 。雙方也正計畫透過 TTC 每季召開監管協調會議,推動實務審查與驗證平台建構。
這將涵蓋模型審計、共用測試資料集與安全評估沙盒操作,以提升透明度與一致性。