當生成式 AI 已可完成多數工作,企業需重視哪些風險?

隨著人工智慧的技術與應用日漸普及,許多企業也開始將人工智慧解決方案加入工作流程或產品中,以推動洞察、自動化和創新。對企業而言,現今使用 AI ,考慮的可能不只是成本或投資問題,而是風險。

KPMG 顧問部數位創新服務副總經理李祖康指出,自從生成式 AI 引發討論熱潮之後,市場對於生成式 AI 的應用也高度期待,並認為至 2027 年將帶來八至九倍的成長。生成式 AI 的出現也意味著過往我們認為只有人類能做的事情,例如創作、設計或是其他需要高度專業性等事情,都能透過生成式 AI 完成,例如需要高度IT專業才能執行的程式開發工作,已有多數企業嘗試透過生成式AI進行除錯(debug)。但為什麼AI仍沒有取代掉人的工作?

李祖康說,主要有兩個原因,一是企業無法判斷,如果用 AI 取代現有人力會產生哪些風險;二則是在取代的過程中,AI 生成的結果,有多數時候並無法判斷真實性。而目前的企業也還沒發展出合適的程序,對此進行控制。

多數企業並沒有人能為AI模型的風險負責

根據 KPMG 一份調查報告顯示,許多企業高階經理人已意識到數據、資訊安全,以及隱私帶來的風險,但並未注意到人工智慧監管可能帶來的風險。李祖康說,多數的企業多半十分熱烈地討論生成式 AI 的應用與發展機會,僅有部分開始意識到 AI 可能導致風險。有趣的是,調查中,有超過八成的經理人都同意生成式 AI 需要納管,卻因為範疇太大,無法對於納管方式提出具體建議。這份報告主要針對140位來自公共與私人企業的美國高階經理人進行調查,受訪企業的營收均收入超過 10 億美元。

他指出,過去台灣企業使用的 AI ,主要是以預測效度為主的 AI 模型,企業在意的重點除了效度與準確度外,還有如何應用於產品及服務上。及至今年,台灣一些AI技術發展腳步較快的企業,才意識到 AI 監管帶來的影響,並開始放慢腳步,回頭檢視過往使用的 AI 有哪些需要控制的風險。

此外,他也說到,無論是歐盟、美國,甚至台灣,在談及 AI 風險控制時,都會先從一些治理原則開始,其中最重要的就是公平性。所謂的公平性包括了訓練資料中是否含有性別或是種族歧視等偏頗資料,而過去的預測模型因為專注於追求準確率極效度,這一塊容易被忽略。

另一方面,則是誰該為這些風險負責?李祖康指出,大部分的企業並沒有人可以為此負責或管理。且並不是每家企業都具有建立模型的能力,有些企業使用的是購買來的模型,這些由其他公司開發的、不具可見性的「黑箱模型 Blackbox Models」,最大的問題是,企業無法判斷模型所產生成果的真實性,也無法確定模型供應商是否已經識別並解決了所有潛在風險?

李祖康建議,在公司在營運使用的 AI 模型上,從資料的搜集到模型的應用上,都有一個循環週期,在這段過程中,每一個環節都需要進行了解與控制。