詹婷怡:建構 AI 治理框架迫在眉睫,跨域對話平台為基礎

台灣面臨專業人才不足及缺乏有效的跨領域對話兩大挑戰,以致治理與產業推動間出現落差。AIF的角色正是要補足這些缺口,建立對話平台,推動產官學研之間的交流,並以前瞻思維協助台灣在 AI 治理與資料治理上形成清晰定位。

隨著人工智慧(AI)滲透至產業與日常生活,其潛在風險與挑戰更甚於以往任何技術迭代。特別是在 5G 與物聯網普及的時代,AI 與外部基礎設施高度連結,任何微小偏差都可能被迅速放大,進而引發資安風險、社會不穩定,甚至倫理爭議等系統性風險,「AI 治理」的迫切性不言而喻。

人工智慧科技基金會(AIF)董事長詹婷怡指出,推動 AI 治理的核心挑戰,並非單純的組織架構調整,而是思維的轉變。若僅停留在制定制度或進行組織修正,卻缺乏對風險、倫理與責任的深層理解,治理便容易流於形式,難以有效回應 AI 帶來的高度不確定性。

建立清晰的 AI 治理框架的必要性

治理的核心是一套制度化管理機制,透過程序、流程與框架,協助政府與產業有系統的規劃與引導。唯有完善的治理機制,施政方針才能落實,產業發展才能在明確方向下被有效引導,並形成穩健的規範基礎。這不僅是政策推動的方法論,更是支撐公共治理、推動產業轉型與確保永續發展的核心基石。

她強調,不論是「可信任 AI」、「主權 AI」、產業落地以及資料治理等議題,皆與治理緊密相關。理解並建立治理觀念,是確保 AI 健全發展的必要前提,也是推動社會信任與產業升級的起點。

從治理的角度來看,「可信任 AI」 與「主權 AI」 雖然核心要素不同,但都屬於 AI 治理框架的實質內涵,並深刻影響國家科技治理與產業定位。缺乏治理觀念的國家,往往僅是零散制定法規或制度,無法構建完整框架;而對治理有意識的國家,則能理解可信任 AI 與主權 AI 共同構成科技治理的兩大支柱。

在治理模式上,可信任 AI 特別強調跨國合作,包含倫理準則、國際協議與多邊規範的制定;而主權 AI 更注重資料治理、跨境傳輸的掌控,以及因應地緣政治所帶來的風險挑戰。兩者相輔相成,共同構成 AI 治理的核心框架,為各國在推動人工智慧發展時提供行動準則與政策依循。

可信任AI與主權AI 形塑產業未來樣貌的雙核心

詹婷怡強調,國家對「可信任 AI」與「主權 AI」兩大面向的著墨,除了將重塑國家科技治理框架外,也將決定AI產業與未來科技的發展樣貌。在可信任 AI 層面,若能建立完整的責任機制、倫理規範、自律準則與政策指引,這些規範將進一步落實於更具體的制度設計,例如《AI 基本法》,以及各產業的專屬規範。對於醫療、金融等高風險領域而言,倫理與合法性將被強化;對大型企業而言,則必須承擔「責任型 AI」的更高標準,以確保技術應用符合社會價值與合規要求。

在主權AI層面,若能持續推動晶片製造、語言模型研發與多語言資料庫的建立,台灣便能逐步構築完整的AI產業生態鏈。反之,若缺乏這些重要資料基礎的投入,台灣可能僅停留於晶片代工角色,而在內容、語料與應用場景上依賴國際供應,無法形成具備自主性的AI能力。

而可信任 AI 與主權 AI 正逐漸互動與融合,成為新一代 AI 治理的核心框架。詹婷怡指出,從國際發展觀察,這一趨勢已相當明顯。例如,歐盟率先制定完整法案,日本與韓國亦推出相關規範,美國則以「AI Action Plan」》作為政策藍圖;同時,G20 與 OECD 等跨國組織,也積極推動國際化治理架構。

詹婷怡表示,未來的 AI 治理模式,政府需建立大方向的治理架構,並以監督者角色確認企業是否遵守其制訂的承諾與規範;若有違規,處罰的依據並非違反某一明文法條,而是企業未履行自身提出的原則。同時,為避免過度管制扼殺創新,私部門的角色將更加重要。企業不再只是被動遵循,而需如同 ISO 認證般,自行提出規範並承諾自律。「企業自律是根本,」她指出當問題發生時,政府與企業將需共同承擔責任,形成動態調適、互補合作的治理模式。

跨域對話平台 彌合治理與產學落差

面對未來的治理模式,是否必然需要進行大規模的組織調整?詹婷怡認為,更為關鍵的其實是「思維的轉變」。許多改革之所以成效有限,原因有二:其一,剛性的組織變革推動緩慢;其二,即便組織架構調整完成,但若治理思維與運作方式未隨之更新,改革仍難以發揮實效。組織本質上是人為設計的制度工具,即使沒有架構調整,只要思維正確,推動任務依舊可行;反之,即使新設部門或機構,若沿用舊有思維,則可能陷入空轉,甚至造成資源重疊與效率低落。

「Forms from function,」她直言,治理的驅動力來自功能與思維,而非形式。因此,關鍵在於找到具備跨域專業與前瞻視野的人才,帶領治理框架的形成與落實。

她進一步以歐盟經驗為借鏡。多年來,歐盟並未因應每一項新興科技大幅調整組織架構,而是透過設立跨領域的高階任務小組(task force)來因應新挑戰。這些小組結合政府官員、法律專家與產業代表,針對 AI、資訊與資料治理等議題展開深入討論。透過跨界對話與協作,逐步制定治理原則,並以此為基礎推動具體規範與立法。其核心觀點在於:AI 治理的本質即是資料治理,因此相關法規與產業規範必須以資料為核心展開設計。

相較之下,台灣主要面臨兩大挑戰:一是專業人才不足,二是缺乏有效的跨領域對話,以致治理與產業推動間出現落差。做為產業AI智庫,AIF 的角色正是要補足這些缺口,建立對話平台,推動產官學研之間的交流,並以前瞻思維協助台灣在 AI 治理與資料治理上形成清晰定位。

數位化關鍵在於打破部門孤島(silo)

詹婷怡指出,推動AI治理也是數位轉型一部分。過去數位化常被誤解為「買一個系統」或「把檔案掃描上網」就完成,但這只是表層。真正轉型的核心在於透過數位化來打破部門與產業之間的孤島(silo),重構流程並創造新價值。唯有打破 silo,跨部會與跨產業的合作需求才會出現,而這正是推動AI治理與資料治理的前提。

她強調,AI治理不只是立法,還涵蓋自律機制、政策框架與指引工具等面向,這些要素相互交織、環環相扣,必須以整體視角加以討論。隨著數位轉型打破部門與產業的界限,對跨部會協調、跨產業合作與跨域人才的需求愈加迫切。若缺乏這些基礎,就難以談及更進一步的AI治理推動。

此外,還需發展測試與驗證機制,以確保 AI 模型的可信性。例如,若要判斷某一模型是否達到安全與合規標準,便需透過認證或第三方驗證,而這類服務最好由中立機構提供,確保公正性。這正凸顯了多方協作機制設計的必要性。

若缺乏多方協作,治理與轉型便難以推進。以企業為例,數位轉型若僅停留在單一部門或外部IT廠商的導入,而未能促成跨部門協作,便無法形成真正的變革。詹婷怡直言,轉型過程中,除了組織文化,包括人與人間的跨部門協作、人機協作、流程改變都很重要。

此外,過程中將需要大量多元人才的參與。不僅是產業領域(domain)專家與 IT、AI 技術人才,更需具備跨域整合能力的「策展」型人才,協調不同角色的合作。無論在國家層級還是企業層級,均需要明確的治理架構、平台型協作者,以及適當的誘因設計。唯有如此,才能推動創新、持續培養跨域人才,並建立長期對話與合作的文化。

更多AI治理觀點,請參考《可信任與韌性 AI 白皮書》,點此下載