歐盟 AI 法案對台灣產業的影響: 高風險人工智慧系統解析(上)
背景
歐盟 AI 法案採用一種基於風險的監理方法,將 AI 系統依風險程度分為四類,即不可接受的風險(禁止)、高風險、有限風險和最低風險,並針對不同風險等級的AI系統或實踐,制定相應的監理措施。其中,其中「高風險人工智慧系統」(第 6 條、附件 1、附件 3),因其應用可能對人類健康、安全和基本權利造成重大危害,受到的規範密度與要求的程度最嚴格。
高風險人工智慧系統
1. 定義和範圍:
歐盟 AI 法案採用雙軌制(潛在風險及應用領域)來定義高風險 AI 系統,申言之,AI系統是否屬於高風險 AI 系統,需要綜合考慮其應用領域和潛在風險。根據歐盟 AI 法第 6 條,「高風險 AI 系統」的判定標準主要分為:
(1)第一軌是作為附件一(Annex I)所列歐盟調和法規所涵蓋之產品[1]的安全元件或本身即為該等產品的 AI 系統,且該產品必須進行第三方符合性評估,以便根據附件一中列出的歐盟調和法規投放市場或投入使用。(第 6 條第 1 項)
(2)第二軌是用於附件三[2]所涵蓋領域的 AI 系統,即:①用於生物特徵和身分識別、②用於管理和運作關鍵基礎設施、③用於教育和職業訓練、④用於就業、勞工管理和自僱機會、⑤用於獲得基本私人服務及基本公共服務和福利、⑥執法、⑦移民、庇護和邊境管控管理、⑧司法行政和民主程序。(第 6 條第 2 項)
(3)只要 AI 系統被用作附件一所列產品的安全元件,或 AI 系統本身就是附件一所列的產品,並且該產品需要進行第三方合格評定,則該 AI 系統自動被歸類為高風險 AI 系統,而無需考慮其是否對健康、安全或基本權利構成重大危害的顯著風險。
(4)即使 AI 系統不構成對人類健康、安全和基本權利之重大危害,仍然可能因為其應用領域而先被預設為高風險 AI 系統。
(5)豁免條款:用於上述附件三8大領域的AI系統原則上先預設為高風險系統,但法案提供了一些豁免條款,允許部分附件三中的 AI 系統在符合特定條件下不被視為高風險 AI 系統(第6條第3項第1小段、第 2 小段):①如果上述附件三 8 大領域的 AI 系統如附件三所列 AI 系統不對自然人的健康、安全或基本權利構成重大危害風險,包括不對決策結果產生實質性影響,則不應將其視為高風險。
②即使 AI 系統被列入附件三,如果符合以下任一條件,適用豁免條款:(a) AI 系統旨在執行狹隘的程序性任務。(b) AI 系統旨在改善先前完成的人類活動的結果。(c) AI 系統旨在檢測決策模式或與先前決策模式的偏差,並且在沒有適當的人工審查的情況下,不打算取代或影響先前完成的人類評估。(d) AI 系統旨在執行與附件三所列用例相關的評估的準備任務。法案中提供了一些僅執行「狹隘的程序性任務」例子:將非結構化數據轉換為結構化數據的 AI 系統、將文件分類的 AI 系統、檢測大量應用程序中重複項的 AI 系統。舉例來說:一個 AI 系統僅用於將非結構化數據(如電子郵件)轉換為結構化數據(如數據庫表格),它可能符合豁免條款,因為它執行的是狹隘的程序性任務,且不直接影響決策結果。一個 AI 系統用於協助律師審查合約,它可能也符合豁免條款,因為它旨在改善先前由人類完成的工作(合約起草),且最終決策仍由律師做出。
(6)如果提供者認為其 AI 系統不屬於高風險類別,應在將系統投放市場或投入使用之前記錄其評估,仍須遵守第49條第2項規定在歐盟資料庫中註冊該AI系統,並須應國家主管機關的要求提供評估文件。(第6條第4項)
(7)如果附件三所列情境的 AI 系統對自然人進行剖繪(根據歐盟通用資料保護條例第4條第4項、歐盟警察資料保護指令第3條第4項或歐盟機構資料保護條例第 3 條第 5 項的定義[3]),無論該系統是否符合豁免條款的其他條件,都將被視為高風險AI系統。(第6條第3項末段)舉例來說:一個 AI 系統用於預測求職者的工作表現,即使它僅用於協助人資篩選履歷,但因為它涉及對求職者進行剖繪,所以仍被視為高風險AI系統。一個AI系統用於評估貸款申請人的信用風險,即使它僅用於提供參考資訊給銀行人員,但因為它涉及對貸款申請人進行剖繪,所以仍被視為高風險AI 系統。
2. 資料治理和資料品質要求(第10條、附件四 ):
- 高風險 AI 系統的訓練、驗證和測試資料集必須符合法案的嚴格品質要求,包括:
- 相關性、代表性和完整性: 訓練、驗證和測試資料集必須與預期目的相關,並盡可能無錯誤和完整。
- 避免偏差: 資料集應具有適當的統計特性,以避免對特定個人或群體產生偏差。
- 資料來源透明度: 供應商應說明資料收集過程和來源,以及資料準備的相關操作,例如標註、清理、更新等。
3. 技術文件(第 11 條)和品質管理系統(第 17 條、附件七):
- 供應商必須建立技術文件,以證明其高風險 AI 系統符合法案的要求。技術文件應包含附件四列出的資訊,例如:
- AI 系統的描述、預期目的和功能。
- 資料集的描述和來源。
- 風險管理系統的描述。
- 符合性評估程序的描述。
- 供應商還需建立符合品質管理系統,以確保其產品的設計、開發和測試符合標準。
4. 符合性評估程序 (第43條):
- 高風險AI系統需經過符合性評估,以確保其符合法案的要求。符合性評估程序包括:
- 內部控制: 由供應商自行驗證其品質管理系統是否符合要求。
- 第三方評估: 由公告機構參與評估品質管理系統和技術文件。
- 歐盟符合性聲明: 供應商聲明其高風險AI系統符合法案要求。
5. CE 標誌(第30條、第48條):
- 通過符合性評估的高風險AI系統需加貼CE標誌(CE Mark 歐盟安全規範),以表明其符合歐盟法規。
6. 持續監控和更新:
- 供應商有義務建立上市後監控系統,以持續收集和分析產品性能數據,並評估其是否持續符合法案的要求。
- 若發生嚴重事故,供應商必須立即向主管機關報告。
在剖析高風險人工智慧系統的定義與範圍,同時說明在資料治理的標準與要求、評估程序與相關規範之後。將說明相關案例,並提出對於台灣產業面對歐盟 AI 法案需要注意的重點。
附件一的法規清單包括A、B兩部分:
A 部分:基於新立法架構的歐盟調和法規清單:1.機械:2006/42/EC 指令,關於機械安全要求;2.玩具:2009/48/EC 指令,關於玩具安全;3.電梯:2014/33/EU 指令,關於電梯安全;4.個人防護裝備2016/425/EU 法規,關於個人防護裝備;5.爆炸性環境中使用的設備和防護系統: 2014/34/EU 指令,關於爆炸性環境中使用的設備和防護系統;6.無線電設備 2014/53/EU 指令,關於無線電設備;7.壓力設備2014/68/EU 指令,關於壓力設備;8.纜車裝置:2016/424/EU 法規,關於纜車裝置;9.燃氣器具:2016/426/EU 法規,關於燃氣器具;10.醫療器材:2017/745/EU 法規,關於醫療器材;11.體外診斷醫療器材:2017/746/EU 法規,關於體外診斷醫療器材;12.汽車和航空: 這些項目並未列出具體的法規條文,僅在描述 AI 系統作為產品安全元件時提及。
B 部分:其他歐盟調和法規清單:13.民用航空安全:300/2008/EC 法規,關於民用航空安全;14.兩輪或三輪車輛和四輪摩托車:168/2013/EU 法規,關於兩輪或三輪車輛和四輪摩托車;15.農林業車輛:167/2013/EU 法規,關於農林業車輛;16.船舶設備:2013/53/EU 指令,關於休閒船隻和水上摩托車;17.海洋設備:2014/90/EU 指令,關於海洋設備;18.鐵路互通性:2016/797/EU 指令,關於鐵路互通性;19.車輛型式核准:2018/858/EU 法規,關於機動車輛和拖車的型式核准;20.民用航空安全:2018/1139/EU 法規,關於建立共同歐洲天空的規則;21.一般安全法規:2019/2144/EU 法規,關於機動車輛的一般安全。 ↩︎歐盟 AI 法案的附件三列舉了各種高風險的人工智慧系統,這些系統的應用可能對人類健康、安全或基本權利構成重大風險。附件三將這些系統分為八大類,並進一步列出其具體應用範疇:
1. 用於生物識別和身分識別的人工智慧系統:
(a) 執法目的的「即時」遠距生物辨識系統: 此類系統用於在公開場合即時識別或驗證自然人,並用於執法目的。法案對於此類系統的使用設定了嚴格的限制,要求必須事先獲得司法機關或獨立行政機關的授權才能使用。
(b) 管理和運作身分識別和身分驗證基礎設施的必要元件: 此類系統用於關鍵基礎設施的身分識別和身分驗證,例如用於控制對電網、水壩或核電廠等關鍵基礎設施的存取。
2. 用於管理和運作關鍵基礎設施的人工智慧系統:
此類系統用於管理和運作交通、供水、供氣、供暖、電力等關鍵基礎設施,例如用於控制交通號誌、管理電網或預測水管破裂。
3. 用於教育和職業培訓的人工智慧系統:
(a) 決定進入教育機構或職業培訓課程的機會: 例如,使用人工智慧系統評估學生的入學申請或篩選求職者。
(b) 評估學生或受訓者的表現: 例如,使用人工智慧系統對學生的考試進行評分或評估受訓者的工作表現。
4. 用於就業、工人管理和自僱的機會的人工智慧系統:
(a) 使用於招聘或篩選程序: 例如,使用人工智慧系統篩選求職者的履歷或進行面試。
(b) 作為決定晉升、解雇或與工作相關的契約條款的工具: 例如,使用人工智慧系統評估員工的績效或決定解雇哪些員工。
5. 用於獲得基本私人服務和公共服務和福利的機會的人工智慧系統:
此類系統用於決定個人是否有資格獲得基本私人服務或公共服務和福利,例如醫療保健、社會福利或公共住房。
6. 執法人工智慧系統:
(a) 評估自然人的風險: 例如,使用人工智慧系統預測個人犯罪的可能性或評估他們構成的威脅程度。
(b) 偵測情緒或判斷個性的系統: 例如,使用人工智慧系統分析面部表情或語音模式來判斷個人的情緒狀態或個性特徵。
(c) 使用於執法目的的「後見之明」分析的系統: 例如,使用人工智慧系統分析犯罪數據以識別犯罪模式或預測未來的犯罪活動。
7. 移民、庇護和邊境管控管理的人工智慧系統:
(a) 用於驗證旅行證件的真實性或偵測偽造證件: 例如,使用人工智慧系統分析護照或簽證以識別偽造文件。
(b) 使用於評估庇護申請的可受理性: 例如,使用人工智慧系統分析庇護申請者的證詞或背景資訊以評估他們獲得庇護的可能性。
(c) 用於在邊境管控時管理和運作佇列或驗證身分: 例如,使用人工智慧系統管理機場或邊境檢查站的排隊系統或驗證旅客的身分。
8. 司法和民主的人工智慧系統:
(a) 協助司法當局詮釋事實和適用法律並做出裁決: 例如,使用人工智慧系統分析法律文件或案例法以協助法官做出裁決。
(b) 用於在選舉中影響選民或操縱選舉結果的系統: 例如,使用人工智慧系統分析選民數據以制定有針對性的政治廣告或傳播虛假資訊。 ↩︎這些法規中對「剖繪」的定義大致相同,指的是以自動化方式處理個人資料,以評估個人某些方面,特別是用於分析或預測與該自然人有關的工作表現、經濟狀況、健康、個人偏好、興趣、可靠度、行為、位置或移動等事項。歐盟 AI 法案 特別關注剖繪可能帶來的風險,因此即使 AI 系統符合豁免條款的其他條件,只要涉及剖繪,仍將被視為高風險 AI 系統。這顯示了歐盟 AI 法案 對於保護個人隱私和基本權利的重視。 ↩︎