真假難以區分的 AI 時代,法律人的新難題
工具被濫用了怎麼辦?真假行為如何區分
「不是工具本身有問題,但問題是被濫用了,怎麼辦?」長風文教基金會執行長蔡玉玲說,法律人在認定行為的對錯時,真假的判定十分重要。針對假的行為,我們會做出裁定處罰,但在 AI 時代,許多事物的真假難以分辨,例如本人透過軟體修改出一個更漂亮的個人照,算是真的還是假的呢?
蔡玉玲認為,AI 時代的問題,包括人類惡意濫用 AI、偽造出難以核實的內容,AI 產品本身有錯誤,但由於技術門檻高,責任歸屬難調查;以及AI技術限制下自動生成虛構的事實。但這些問題並不會讓科技巨頭與技術演進的腳步就此停止,也因此可以看到世界各國開始提出各項倫理準則與白皮書,包括歐盟自 2019 年關注到相關議題,並於同年4月在歐洲議會發布《可信賴人工智慧倫理準則》、2020 年 2 月歐盟執委會所發布「人工智慧白皮書」。最新的發展則是2021年由歐盟執委會提出「人工智慧法」草案。該法案針對AI應用可能產生的風險分為三個類別,企業還必須提交有關其使用 AI 的風險評估。她認為,歐盟主要從使用者的角度切入,其中的風險管控十分值得台灣立法參考。
另一方面,美國則從國家競爭力的角度切入,包括 2019 年由美國前總統川普簽署發布的「美國AI倡議」(American AI Initiative),主要目的是為了確保美國在 AI 領域的領導地位;及至2023年10月由拜登簽署的則是「關於安全、可靠且可信賴地開發和使用人工智慧的行政命令,即使考量 AI 所產生的風險,主要關注的還是 AI 領域的戰略位置。而中國則是著重於 AI 產業發展的競爭力,並於2023年7月發布《生成式人工智慧服務管理暫行辦法》。
國際合作將是未來趨勢,台灣很難自己玩一套
蔡玉玲認為,在 AI 的監管上目前仍有許多討論的糾結,首先是需要業者自律還是政府必須介入,各自有不同的看法。支持自律者認為,政府介入將對技術發展設下不必要的限制,妨礙創新,且政府不一定具有監管的能力;而支持他律者則認為,AI 將帶來顛覆性改變,政府應提前介入,及早管控。
另外,在法律的訂定上則有分散立法(進行部分監管),或該訂定專法(進行全面監管)的爭議。亟待討論的還有是要針對技術還是應用領域進行監管,以及採取事前還是事後監管?例如歐盟的AI草案中,有部分提及必須要經過核准才能使用,這就是事前監管。而有一些需要進行標示,並且遵守原則,若沒有遵守原則就必須接受裁罰。兩種在法律的設計上極為不同。
蔡玉玲認為,國際合作將是未來必要的做法,例如 G7 廣島峰會已提出相關規範;而在第一屆全球 AI 高峰會上,28 個國家也已共同簽署「布萊切利宣言」,預期將會提出國際的規範。由於目前台灣的規範仍在倡議階段,只有少數主管機關訂定原則性的 AI 規範。
她建議,不應該以一個法案籠統包括全部,而是應該考慮自律與他律並行。同時,必須要考慮到與國際接軌的必要性,因為台灣很難自己玩一套,必須遵循國際的規範。也許等國際規範更加確定後再進行處理,也期許數位部能肩負起相關職責,提供更明確的政策發布與指導原則。