AI 治理(一):內涵、核心理念與全球發展趨勢

一、導論:AI 治理作為時代課題

人工智慧的崛起,使「治理」不再只是技術管控的議題,而成為一場涉及人類價值、社會結構與國際秩序的深層轉變。從生成式AI到自動決策系統,AI應用滲透金融、醫療、教育與公共行政,帶來前所未有的效率與風險。這些風險不僅包括演算法偏誤、資料濫用與不透明性,更牽涉倫理、隱私與民主信任等根本問題。

因此,AI治理的核心在於「讓技術在可控範圍內服務人類」。它不只是建立法律規範或技術標準,更是一種跨層次的社會治理工程——結合倫理原則、組織制度與公共參與,以確保AI的發展能維持人本、安全與公平的價值導向。特別是近日發生的Deloitte退款事件,顧問報告中發現含大量人工智慧假內容,如不存在的引用論文、捏造的聯邦法院判決,以及多個無法查證的註釋,更是專業幻覺下的AI治理警訊,引發各界AI 工具使用規範的激烈討論,我們更應高度且持續關注及推進AI治理的制度與實踐。

從全球視角觀察,AI治理已成國際競合與價值輸出的新戰場:美國強調以技術標準與市場導向確保創新競爭力;歐盟以《AI Act》為核心,透過法律強制建立高風險AI監管體系;英國則以倫理、透明與安全為三支柱,透過AISI建構「科學化治理」;OECD與GPAI推動跨國政策協調,形成多邊信任網絡;日、韓、新加坡等亞洲國家也相繼推動相關的國家政策與立法監理,積極且與國際接軌。

在此多元架構中,「負責任人工智慧」(Responsible AI)與「可信任人工智慧」(Trustworthy AI)為AI治理的兩大核心理念,前者重倫理文化與社會責任,後者重制度信任與技術可驗證性。兩者共同構成AI治理的基礎,並在制度層面預期將經由AISI、ISO/IEC 42001及GPAI等機制逐步落實。

二、AI治理的內涵與核心原則

AI治理可視為一套多層次的架構,包含倫理與價值的理念、政策與標準的制度、與監理與落實的執行等各層面,相較於傳統的資訊治理(Information Governance),AI治理更具挑戰性,因為AI具自我學習與非線性決策特徵,使透明度與責任歸屬更為複雜。AI治理的核心價值主要體現在幾個方向:(1)確保安全與信任:降低演算法偏誤與系統風險,強化公眾信賴;(2)促進責任分配:明確界定AI錯誤與損害的責任主體;(3)兼顧創新與監管:確保治理不扼殺創新,形成動態平衡;(4)強化國際競爭力:以治理能力與標準輸出塑造國際規則影響力;(5)推動永續發展:逐漸將AI納入ESG與SDGs框架,確保技術發展與人類長遠利益一致。

其中,「負責任AI」與「可信任AI」是兩個動態互補的核心內涵。

負責任AI(Responsible AI) 強調「行動者的責任」——即AI的開發者、使用者與管理者應對AI的結果負責。它注重透明、問責、可解釋性與風險管理等原則,要求AI開發全流程中落實人權尊重、偏誤防範與透明溝通,並形成企業內部治理機制, 反映一種以人為中心、以社會責任為導向的治理觀,為後續的制度化信任奠基。

自2017年起,Google、Microsoft、IBM、OpenAI、以及IEEE等企業及學術機構與組織相繼提出AI倫理準則;2019年OECD發布《AI原則》(OECD AI Principles),強調AI應促進人類福祉、確保透明與問責,並於同年獲G20採納。此類原則屬於「軟性治理」(soft governance),主要透過道德倡議與自律文化引導開發者行為,強調組織內部倫理自覺與社會問責。

可信任AI(Trustworthy AI) 則代表AI治理從倫理文化走向制度化與可驗證信任的階段,更強調「系統的品質與社會信任」。它關注技術本身是否具備可靠、安全、公平與尊重人權的特質,並能建立長期的信任關係。可信任AI的實踐不僅依賴倫理宣言,更需以制度化的合規機制與監理工具支持。其核心理念源於歐盟的《可信任AI倫理準則》(2019),強調AI必須同時具備三大合法、合乎倫理、技術穩健等三大要件。

整體而言,負責任AI偏向「治理者的倫理義務」,可信任AI則偏向「系統的社會信任條件」。兩者共同構成AI治理的雙重支柱,從主體責任到制度信任,建構出完整的治理生態。

三、倫理理念的脈絡演進

AI治理的倫理脈絡可追溯至資訊倫理與科技社會責任的發展。早期AI倫理多以「不傷害」與「透明」為原則,隨著AI影響範圍擴大,倫理焦點轉向「公平」、「可問責」與「人類控制」。

歐盟在2019年提出《可信任AI倫理指導原則》,奠定七大原則:人類能動性、技術穩健性、隱私與資料治理、透明性、多元與非歧視、社會福祉與問責。此一倫理結構影響了後續國際標準與國家政策,2024年歐盟正式通過《AI法案》,以風險導向的方式對AI應用進行分級監管:(1)無法接受的風險AI由於對人類構成嚴重威脅,因此要全面禁止,包括以行為、社經地位、個人特徵為準的社會評分系統,遠端即時生物特徵辨識系統,預測個人會不會犯罪的預防性執法系統等;(2)高風險AI指有可能損害人身安全或基本人權的AI系統(如醫療、教育、司法)需通過第三方合規審查、(3)有限風險AI需資訊揭露與人類監督;(4)最小風險AI則採市場自律。此等法案也象徵AI治理由倫理原則走向「硬法規」實踐,使AI不僅是「可被信任」,更是「可被驗證地信任」。促使AI治理由「倫理倡議」轉化為「制度實踐」。

在此脈絡下,「AI治理」逐步從道德宣示自律原則走向具體管理制度,並形成跨國政策競逐的焦點。倫理原則不再只是附屬於技術的附註,而成為創新與信任的制度基礎。