展望2024,國際的 AI 監管競賽正要展開
歐洲就人工智慧法案(AI Act)達成政治協議,但爭議仍在
人工智慧法案草案旨在確保歐洲人工智慧的安全,並尊重基本權利和民主與歐盟價值,而企業也能蓬勃發展和擴張。該法案早在2021年便已進行初步提案,但在ChatGPT等生成式AI工具發布後,立法者又針對這些工具調整草案內容。經過兩年多的調整和談判,歐洲議會在今年6月14日投票通過「人工智慧法」草案。法案的概念主要依據人工智慧對社會造成危害的能力,基於「風險」的方法來監管人工智慧,在確定的風險分級標準下,風險越高,規則越嚴格。
與最初的提案相比,新的協議內容除了針對可能導致系統性風險的高影響力通用人工智慧模型及高風險人工智慧系統的規則修訂;修訂後的治理體系,在歐盟的層級中具有一定的執行權;並且擴大禁止清單,但允許執法單位在遵守保障措施的情況下,可以在公共場所使用遠端生物識別。另外,也要求高風險人工智慧系統的部署者,有義務在投入使用系統前,進行基本權利影響評估。(了解更多草案內容:歐盟通過《人工智慧法》草案的後續及影響)
根據該法案,具有足夠大運算能力的基礎模型將被定義為具有系統重要性,並面臨透明度和網路安全要求等額外監管。此外,法案也禁止某些場景的人工智慧應用,例如在工作場所或學校使用的情感識別系統,並對執法和教育等「高風險」領域使用的人工智慧實施嚴格監管。違反規定的業者可能被處以最高3,500萬歐元或年營收7%的罰款。
針對該法案仍有許多需要討論的議題,例如法國總統馬克宏在協議達成幾天後便提出警告,認為擬議的法律可能會扼殺歐洲的創新市場。預計法案距離正式實施仍需約兩年的時間。
拜登簽署的 AI 行政命令,為美國還是為 AI標準 ?
除了歐洲關注人工智慧相關監管問題外,美國總統拜登更在英國召開首屆「AI高峰會」的前一日(10月30日),簽署一項關於推動及治理人工智慧(Artificial Intelligence, AI)的行政命令,清楚說明美國政府對於 AI 規範的原則,除了是美國向國際宣示領導AI未來發展的重要政策聲明,也透過這個行政命令,在美國國會完成AI相關立法前規範AI技術的研發與應用。
這份長達 63 頁的文件試圖解決如強大的人工智慧系統所帶來的風險、自動化對勞動市場的影響,以及人工智慧侵犯公民權利和隱私等問題。更希望藉此提升美國在 AI 技術方面領導地位,強調與國際夥伴合作,在全球推動AI標準。
這份行政命令同樣也認為需要針對AI基礎模型進行規範,且基於風險原則規範AI,但在風險範圍與分類上,美國更關注兩用基礎模型(dual-use foundation models)在國家安全、經濟安全、公衛安全等方面構成的嚴重風險,關注兩用基礎模型的開發與交易,以及相涉的大型資料中心。另外,AI 行政命令雖然引用了DPA和IEEPA等國安法規,但目前僅賦予企業應向聯邦政府通報資訊的義務,並未祭出裁罰。
儘管仍有許多討論空間,但可預見國際的 AI 監管競賽已經啟動,除了美國的AI行政命令外,11月在英國主辦「AI安全高峰會」後也由28 個國家共同簽署「布萊切利宣言」(Bletchley Declaration),宣示各國共同防範AI可能造成的社會風險;其他如G7 廣島峰會也已提出相關規範,在在顯示AI的監管已成國際經貿與科技政策合作重點。