歐洲議會在6月14日投票通過《人工智慧法案》草案,這項立法進展雖無關技術突破,卻可能對歐洲科技政策方面帶來深遠影響,也是由監管機構首次提出的AI法律。雖然歐洲議會立法的程序十分繁複,及至法律正式實施仍有一段時間,但從草案內容中可以看出未來AI規範的輪廓已經基本成型。
接下來,歐洲議會將與歐盟理事會和歐盟執行機構歐洲委員會商討細節,針對目前各自手上的法案進行討論,最終正式通過的法律將是不同草案間權衡折衝結果。由於目前草案之間存在很大差異,預計實施約需兩年的時間。
歐盟早在2021年便已啟動相關立法程序,但在ChatGPT等生成式AI工具發布後,立法者又針對這些工具調整草案內容。該法案針對AI應用可能產生的風險分為三個類別,企業還必須提交有關其使用AI的風險評估。如果立法者認為風險「不可接受」,一些AI應用將被完全禁止;而被視為「高風險」的應用將受特定法律要求,包括新的使用限制和透明度要求。
首個針對生成式AI提出監管的草案
1.禁止情感辨識AI的使用:禁止在執法、學校和職場中使用試圖辨識人們情感的AI工具。情感辨識軟體的製造者聲稱,產品能判斷學生是否理解特定內容,或駕駛是否在打瞌睡。主要是因為利用AI進行臉部偵測和分析被認為精準度有待商議且具有偏見。不過,其他兩個機構的草案中並未禁止相關使用,預期未來將可能出現爭議。
2.禁止於公共場所使用即時生物特徵辨識和預測式執法:不過執法團體認為這項應用對於現代執法而言,具有必要性,並不贊成對即時生物特徵技術實行禁令。部分國家,如法國實際上也計劃增加對臉部辨識的使用。
3.禁止社會評分:意指禁止在公共機構使用人們社會行為的數據來建立或針對個人情況進行 評分。大多數認為該評分應用主要被用於中國和其他威權政府,但是,在房貸和保險費率的設定、招募和廣告中,使用社會行為資料對人們進行評分是很常見的作法。
4.針對生成式AI提出限制:這是首個提出對生成式AI進行監管的草案,並禁止在大型語言模型(如OpenAI的GPT-4)的訓練集中使用任何受版權保護的資料。OpenAI已經因為資料隱私和版權問題,受到歐洲立法單位的關注。該草案也要求必須在AI生成的內容上,標註其為AI生成。不過,針對這點,仍需要尋求歐洲其他國家的認可。
5.針對社群媒體的推薦演算法使用新限制:新的草案將推薦系統列為「高風險」類別,這是從其他提議的法案中升級而來。這意味著,社群媒體平台的推薦系統可能會受到更嚴格的審查,而科技公司將對用戶的內容影響負起更多責任。
與其他成員國立場不同,日本允許使用受版權保護的資料進行訓練
雖然人們對使用公開資料進行AI模型訓練的公平性和合法性提出越來越多質疑,且新通過的歐盟《人工智慧法》草案中,也對訓練集中具版權的資料進行規範。英國的開發人員僅能將受版權保護的作品用於研究目的;而美國的著作權法則包含了「合理使用」原則,允許在某些情況下,無需徵求著作權所有者的同意,就能使用部分內容。不過,日本卻允許AI開發人員利用受版權保護的作品進行模型訓練。
日本眾議院內閣大臣長岡恵子(Keiko Nagaoka)表示,根據法律,機器學習開發人員不論用途,或是訓練後的模型是否為商業使用,都可以在受版權保護的作品上進行訓練,但禁止對版權持有人造成不合理損害的使用。
長岡表示,法律在技術上禁止開發人員使用非法獲取的版權作品,但要判斷大量的資料來源十分困難,也難以執行限制。而版權持有人並沒有借用法律阻止將其作品用於AI訓練上。
2018年,日本修改著作權法,允許免費使用受版權保護的作品來訓練機器學習模型,前提是「不能為了享受作品中表達的思想或情感目的」。然而,視覺藝術家和音樂家則呼籲修訂法律,認為允許AI在未經許可的情況下訓練其作品,將威脅到他們的創作生計。
迎接AI時代,公平性以及制定合理的法律標準都是棘手的問題,也會導致不同地區朝著不同的方向發展。各地的政策制定者都嘗試針對這項不斷進化的科技進行監管,例如美國已發布政策藍圖,內容包含在AI公開上路前進行測試,以及保護隱私權的規則。而中國也已公布規則草案,要求聊天機器人製造商遵守中國的嚴格審查。
資料來源:MIT Technology Review、DeepLearning.AI、The Artificial Intelligence Act