人工智慧(Artificial Intelligence, AI)正成為全球科技競逐與治理思維轉型的核心議題。AI治理(AI Governance)不僅關乎技術發展的安全與倫理,更關乎社會信任、制度規範與產業永續。本文旨在探討AI治理的核心內涵、理念脈絡及其在全球範圍的制度化發展,透過比較分析負責任AI(Responsible AI)與可信任AI(Trustworthy AI)的概念異同與多層次整合,並進一步論述英國AISI模式、ISO/IEC 42001國際標準及OECD GAPI框架的制度實踐,最後總結全球治理的演進趨勢與我國應有的戰略思維。
四、制度實踐的逐步形成:從原則到框架
AI治理的制度化發展,反映各國在技術競爭與社會責任之間的平衡思維。歐盟以《AI Act》建立高風險AI分類制度,美國強調自律與責任機制,而亞洲國家多採混合模式。
英國的 人工智慧安全研究院(The AI Security Institute, AISI) 提供了治理的創新模式。2023年成立的AISI以「科學化測試與技術驗證」為核心,建立AI模型的風險評估與透明度審查機制,確保AI開發在透明、可追溯的框架下進行。它使AI治理從理念走向操作,提供了具體可驗證的管理工具,成為國際企業實踐「可信任AI」的重要依據,這種模式不僅強化風險監理,也形成一種「科技自律與公共信任並行」的治理典範。AISI不僅是研究機構,更是「政策、技術與倫理」交會的治理樞紐、並與美國NIST、OECD及GPAI合作推動國際標準協調。戰略上AISI同時整合Responsible AI(倫理自覺)、Trustworthy AI(制度信任)與Global Cooperation(全球協作),成為「責任・安全・信任」三位一體的國家治理模式。
同時,2023年底發布的ISO/IEC 42001《人工智慧管理系統標準》,是可信任AI落實的關鍵制度。ISO/IEC 42001 作為全球首個AI管理體系標準,將AI治理制度化地嵌入組織運作,要求企業建立涵蓋倫理審查、風險辨識、透明報告與問責程序的完整管理流程。這項標準要求企業建立AI政策、風險控制流程與倫理審查機制,並以「持續改進」為原則,將AI治理制度化、可稽核化,形成跨國企業共同遵循的操作準則,降低合規成本並促進信任流通。
五、OECD GAPI模式與國際合作的推進
AI治理的挑戰不僅在於國內制度,也在於跨國協調。OECD於2020年成立的「全球人工智慧夥伴關係」(GPAI),正是將負責任AI/ Responsible AI理念轉化為全球制度信任與政策協作的平台。GPAI的目標與功能在於:(1)政策協調與知識共享:以分組重要主題建立跨國AI政策資料庫與最佳實踐庫;(2)倫理落實與信任評估:推動AI倫理原則的操作化、量化與評估;(3)跨國信任基礎建設:連結OECD、UNESCO、AISI與ISO標準,形成全球信任互認機制。2023年OECD提出 Governing AI Principles and Implementation(GAPI)模式,代表AI治理邁向全球協調的新階段。
GAPI模式強調「從原則到實踐」的政策轉譯,並以多層架構推動治理成熟度。在GAPI框架中,AI治理被視為動態系統,需同時考量政策一致性、風險導向管理、社會參與與跨境協調。它主張各國應在共通價值的基礎上,建立資料共享、監理透明與技術評估的協作機制。這一思維不僅促進國際信任,也降低治理碎片化的風險。
GAPI的特點在於強調「治理生態系」的形成,而非單一國家的管制。GPAI強調多方利益關係人協作導向AI治理,透過政府、企業與學研合作,促進國際規範一致性與互操作性,減少治理碎片化與地緣政治分歧。經由推動開放數據、跨部門合作與公私協力,OECD試圖打造一個兼具靈活性與責任感的全球治理格局。這也意味著AI治理正從以國家為主體的監理邏輯,轉變為以國際共治與倫理共識為基礎的制度秩序。
六、全球AI治理趨勢與政策脈絡
AI治理模式的演化可概括為三個階段:(1)原則階段(Ethical Phase):提出道德倡議與行為準則,如OECD AI Principles、企業自律守則。(2)標準階段(Standardization Phase):制定可操作化的技術與管理標準,如ISO/IEC 42001、NIST AI RMF。(3)法規階段(Regulatory Phase):立法規範高風險AI,如歐盟AI Act的強制監管。
目前全球AI治理呈現三大趨勢。首先,從倫理宣言走向法制化監理。歐盟《AI Act》、美國《AI Bill of Rights》草案及日本「可信任社會5.0」政策,都顯示AI治理正在制度化,成為具約束力的政策架構。
其次,從個別國家邁向跨國協作。AI技術跨越國界,單一國家難以獨立監理。因而出現OECD、G7與聯合國等多邊平台推動的「全球AI協調架構」。聯合國也同時倡議建立「AI治理理事會(AI Governance Council)」,以確保AI發展符合人權、和平與永續原則。
第三,從企業自律邁向社會共治。越來越多企業開始採用ISO/IEC 42001或內部倫理審查機制,但真正的信任建立需仰賴公民社會的參與。AI治理因此被重新定義為「多方協力的信任建構過程」,政府、產業與公民共同承擔風險與責任。
在此脈絡下,AI治理不僅是防止風險的工具,更是推動創新的基礎。唯有在有秩序的信任機制下,AI的潛能方能被安全且永續地釋放。
七、融合與前瞻:責任與信任並重的全球治理新秩序
AI治理的發展已從理念走向結構化實踐。從英國AISI的前瞻安全治理,到ISO/IEC 42001的組織管理體系,再到OECD GAPI的全球協作模式,世界各國正共同形塑AI的治理藍圖。AI治理的未來方向,具體而言將是:(1)責任文化制度化:將Responsible AI的倫理理念內嵌於企業流程與國家政策,透過ISO/IEC 42001及AISI轉化為具體稽核標準。(2)制度信任國際化:藉由GPAI、OECD與NIST等平台推動跨國標準協調與風險共評。(3)跨層協作治理:在倫理、制度與合作三層間形成互補機制,構築全球AI信任基礎設施。「倫理・制度・協作」的結構與模式,使AI治理從理念走向行動,從國內規範走向全球互信。
未來的AI治理,將不僅著眼於法規,而更重視價值導向與制度信任。其挑戰在於如何在促進創新與防範風險之間取得平衡,並建立跨國共享、透明與可問責的治理機制。
八、結論:邁向安全、可信與永續的智慧國家與公民社會
AI治理的發展軌跡反映出一場從倫理自覺到制度信任,再到全球協作的治理進化。Responsible AI 是倫理責任的起點;Trustworthy AI 是制度信任的核心;各國法制結合GPAI與AISI等制度 則象徵多邊治理的實踐平台。
未來的AI治理,「倫理・制度・協作」將是非常重要的戰略高度與戰術實踐的基礎,唯有如此,AI才能在責任中被設計、在信任中被使用、在合作中被治理,邁向一個安全、可信、永續且普惠的智慧未來。
對台灣而言,若能借鏡國際制度,建立具前瞻性的AI治理架構,結合倫理審查、風險監理與國際接軌,不僅可提升科技競爭力,更能以「信任科技」為核心,成為亞太區AI治理的標竿。
關鍵詞:人工智慧治理、負責任AI、可信任AI、ISO/IEC 42001、OECD GAPI、AISI、全球治理