
數位信任與 AI 治理雖相關,但關注範疇有本質差異。「數位信任」著重於如資料保護、系統可用性、網路協議與資安標準等技術治理層面範疇;而 AI 治理所需面對的,則是更複雜的社會與技術議題(socio-technical aspects)。
隨著人工智慧(AI)快速滲透至關鍵基礎設施與社會運作核心,如何在推動創新發展與有效風險治理之間取得平衡,早已是全球科技先進國家關注的議題,也是台灣當前必須面對的關鍵。特別是在各國紛紛提出 AI 治理框架的此刻,台灣如何結合在地實務與全球原則,構築具韌性且負責任的 AI 發展機制,將牽動台灣產業下一步發展,同時也是面對地緣政治風險、因應全球化環境劇變的重要任務。
在 2025 年台灣網路治理論壇(TWIGF)上,人工智慧科技基金會(AIF)董事長詹婷怡、TWIGF 多方利害關係人指導小組(MSG)委員范菁文、以及鴻海研究院執行長李維斌 對談,由 AIF執行長溫怡玲主持。論壇以「數位信任」與「系統韌性」為切入點,探討 AI 治理在全球數位治理體系中的角色,並從政策、社會科學與產業實務三個面向,剖析台灣在 AI 治理的挑戰與契機。
歷史視角:數位機制走向社會共識
范菁文首先回顧「數位信任」(Digital Trust)的發展脈絡,這個演進過程正好反映出數位治理思維的變化。
從1990年代中期到 2000 年初,全球網路安全機制如 PKI、SSL、TLS 等協議逐步建立,企業如微軟提出「信賴運算(Trustworthy Computing)」理念,將安全、隱私、可靠與完整性納入軟體設計核心。此後,網路安全的焦點從「防禦」轉向「韌性」,並發展出「零信任」架構,成為今日由 NIST(美國國家標準暨技術研究院)等機構標準化的主流策略。
她指出,這一趨勢最終演化為「數位信任」的概念。國際組織如世界經濟論壇(WEF)與 KPMG 提倡「生態系統層級的網路韌性」,ISACA 亦提出數位信任生態系統框架(DTEF),強調安全性、韌性與完整性並重。
然而,范菁文指出,數位信任與 AI 治理雖相關,但關注範疇有本質差異。「數位信任」著重於如資料保護、系統可用性、網路協議與資安標準等技術治理層面範疇;而 AI 治理所需面對的,則是更複雜的社會與技術議題(socio-technical aspects)。
「AI 治理不僅關乎演算法透明與可解釋,更涉及公平、問責、社會正義,以及 AI 是否加劇既有不平等。」她指出,傳統信任框架無法處理深度學習的「認知不透明性」(epistemic opacity),像是預測性警務中的偏見或醫療 AI 的錯誤分流,都是現有制度難以回應的挑戰。
企業視角:從規則信任到決策信任
李維斌則從企業實務角度指出,AI 的「信任問題」不同於傳統數位轉型。
「在數位化的年代,電腦只是依照人寫的規則執行;但在 AI 的年代,系統會自行學習、判斷、甚至做出決策,這時信任的本質就改變了。」他表示,AI 不再只是工具,而是具有主動行為的決策者,因此治理的關鍵也從「規範」轉向「互信」。
企業追求創新價值,但創新與規範之間的矛盾,需要透過制度化的治理機制加以調和。李維斌舉例,鴻海設立 AI Governance Committee(AI 治理委員會),正是為了在創新與標準之間取得平衡。
他回顧,委員會成立初期跨部門意見分歧,衝突頻繁,但也促成更深層的理解與合作。「資料與知識的流動,不是單靠流程(procedure)就能解決,」在這樣的過程中他發現,很多隱性知識存在於人的經驗與對話中,只有在可信任的環境裡,大家願意坐下來充分交流,這些知識才能被轉化與傳遞。
這種互信文化的建立,正是企業治理的關鍵。李維斌指出,治理問題不可能靠單一技術、單一流程或單一人員解決,一定需要不同背景的人共同參與。但跨領域溝通並不容易,因此標準(standard)是一種「共同語言」,透過明確定義術語與規範,讓各方能在同一個基礎上溝通,減少誤解與衝突。
AI 的導入同樣充滿不確定性。企業環境具有高度動態性,多數公司仍在摸索如何調整組織結構與文化。「AI 的導入需要大量溝通與磨合,不同企業不可能用同一套方法就成功。」李維斌坦言。
他進一步指出,AI 專案失敗的原因,往往不在技術,而在組織能力與文化落差(capability gap),「很多時候,信任的問題不是 AI 技術不好,而是組織內部的落差沒有被彌補。」
對台灣中小企業而言,這尤其是一項挑戰。中小企業數量龐大,但資源有限、結構鬆散,若無法選擇合適的技術與工具,就容易誤以為「AI 難導入」「AI 不實用」。實際上,問題並非出在技術,而是缺乏正確的導入策略與治理方法。
「AI 導入的每一環節都牽動信任,而信任的缺口最終會轉化為治理的挑戰。」李維斌總結,「唯有透過制度化的治理、跨部門的協作與文化上的信任重建,AI 才能真正成為企業創新的助力,而非風險的來源。」
治理視角:從標準答案走向對話機制
詹婷怡進一步回應,AI 治理需要跳脫「追求標準答案」的思維。
「在台灣,我們習慣凡事要有明確答案,但在多層級、跨領域的科技治理中,往往不存在單一、立即有效的解方。」她強調,治理並非尋求終點的標準答案,而是一個過程:透過制度化的程序、資訊共享與協商機制,讓不同利害關係人能共同界定問題、逐步形成共識。即使無法立即解決,也能在持續的對話中推動改善。
她指出,當前許多科技術語仍在發展中,例如國際間對「AI 安全(Safety)」與「資安(Security)」的界線即是典型例子。前者著重於「非蓄意風險」——如演算法錯誤與模型偏差;後者則聚焦於「蓄意攻擊或濫用」。這些概念的邊界並非一成不變,而需透過跨領域對話與實務驗證,在實踐中逐步釐清。
所以AI時代的治理,詹婷怡認為比較好的認知是,「一套制度化的程序與方法,更是一個持續解決問題的過程。」其價值不在於立即找到答案,而在於建立一個讓不同利害關係人能夠共同界定問題、交換資訊、協商討論的機制。
未來展望:以信任為核心的治理藍圖
詹婷怡表示,當前全球正處於數位轉型與 AI 浪潮的交織之中,同時面對地緣政治、氣候異常等帶來劇烈變化的風險。企業不僅需要重新定義營運模式與競爭策略,更需思考如何在新的生態環境中創造價值。
在生成式 AI 的時代,資訊的傳遞、利用與結果已全面改變,這背後牽動的不只是技術,更是 營運模式、社會信任與治理結構。AI 已不再只是工具,而是驅動產業鏈重組的力量。
這樣的環境下,風險管理與韌性建構成為核心議題。企業必須學會界定、衡量、承擔並分散系統性風險,特別是在安全(security)與隱私(privacy)領域,若無法制度化治理,便無法建構 Responsible AI 與 Trustworthy AI。
同時,數位攻擊與法規遵循雖常被視為「成本」,卻能反過來成為提升效率、增強安全與支援決策的契機。換言之,風險不僅是挑戰,也是價值創造的來源。
詹婷怡強調,唯有透過制度框架、跨界協作與文化信任,才能建構台灣的 AI 治理藍圖。數位信任不是單純的技術語彙,而是一種理念與宗旨,最終將轉化為標準、法規與國家治理模式。