全球啟動 AI 風險控管,涵蓋層面廣亟待開啟專家對話

自 Open AI 發表 ChatGPT 後,不僅產業開始關注生成式 AI 帶來的各種應用與成長機會,同時引發許多濫用或誤用的爭議。世界各國近來也嘗試透過規範方針或原則,以規範 AI 的發展及應用,但由於涉及層面極廣,當中存在許多難題。例如創新與規範的尺度拿捏、全球框架與不同地區或產業的差異,對於過去既有的法律及政策框架來說,都是全新的挑戰,需要透過跨域專家對話凝聚共識,進而提出具體可行的AI治理方法。

長風基金會於 12 月 2日舉辦「突破論壇」,以「全球啟動 AI 風險控管:台灣怎麼管?誰來管?」為題,邀請KPMG 顧問部數位創新服務副總經理李祖康、長風基金會執行長蔡玉玲、Inside 創辦人蕭上農共同與談,由人工智慧科技基金會執行長溫怡玲主持,從不同角度討論AI治理的挑戰與迷思。

台灣有能力監管嗎?是否會對中小企業帶來影響?

溫怡玲表示,近一年來由於 AIGC 的爆炸性發展,對於AI治理的討論只從技術角度切入是不夠的,必須著重不同的應用場域及情境,例如包括 ESG、行銷、製造、醫療等領域,其影響的層面涉及經濟、教育、文化,再衝擊到法律層面。目前,台灣社會對於應用風險與監管的關注仍顯不足。

蕭上農説,以一個終端的使用者以及網際網路產業的創業者經驗來看,可以發現自去年底 ChatGPT 發表後,許多人開始認識到生成式 AI 工具的應用,所帶來營運成本的改變,包括翻譯成本下降、協助聽打與改寫並提升個人的工作效率,但這些事情仍需要人類進行最後的校正,以確保真實性。

但他也引用蘋果執行長庫克的受訪對話指出,世界各國都在盡力追趕 AI ,並在未來的 12 至 18 個月內會有對應的法規出現。只是對一般人來說,可以看到目前大型語言模型的主要開發者都在國外,而台灣的法規是否有能力進行監管;且當監管過於嚴格時,受到限制或損害的,會不會是規模較小的台灣企業?

李祖康則觀察到,在生成式 AI 工具引發討論熱潮後,企業對於AI的應用與發展討論極為熱烈,卻只有極少比例的企業認知到 AI 可能帶來的風險。不過,許多 AI 發展領先的企業,已經開始注意到相關影響,也因為擔心AI帶來的風險,在發展的速度上趨緩,並開始回頭檢視過往使用的 AI 範疇以及應用層面。

真假的價值將面臨挑戰,法律將是最後的保障

「科技產生的問題,用科技解決比用法律解決更快。」深耕科技相關法律多年的蔡玉玲認為,AI治理與法規是很大的一個難題。由於技術的演進速度越來越快,每個人將能使用越來越多的厲害工具,對於法律人來說,未來世界真假的判定與價值判斷將會面臨挑戰。由於過往實體世界對於真假的判定,都具有價值判斷性,但在新的時代中,這些使用生成式工具所產生的成果,其真假程度與意圖該如何認定?例如個人使用生成式 AI 工具生成一個具有不同能力的自己,是否可行?在工具的使用上,使用的程度該如何判定。她認為,未來將需要制定共同的規範,包括使用工具必須被揭露。而揭露使用的工具之後,也可以使得數據的使用降低錯誤與危險性。

溫怡玲提到,數據、算力與模型(演算法)是構成 AI 的三大重心,各自有不同的議題亟待討論,不同背景如一般使用者、企業代表、法律人都有不同的看法;即使是知名的 AI 學者,如 Yann LeCun、Geoffrey Hinton 等人在 AI 監管議題上,也有不同的看法。另一方面,在倫理與法律的問題上,各國對於倫理有不同定義和容易範圍,例如有些國家可以接受到處都有影像偵測;但對歐美國家而言,可能是侵犯人權議題。因此她認為,AI 的監管必須要能因地制宜,但因為使用地區無法限制,更需要在全球框架下討論。因此,各國政府首先必須解決的是,如何在全球的框架下保有因地制宜的可能性。

她認為,目前在國際間解決AI治理難題的方法,通常是開啟不同領域專家間的積極對話,不只是 AI 的技術專家,還有產業專家以及不同學術領域的專家,因為不同領域的人所看到的角度與面向都有所不同。更值得注意的是, AI 的議題並不會單獨存在,當中必須同時考慮資安,甚至涉及到晶片供應等議題,當中存在著許多利益角力與政治考量,是必須集合眾人智慧來解決的難題。