「人工智慧基本法」在2025年底經立法院三讀通過,2026年1月14日總統令頒佈實施。對於台灣產業而言有哪些影響?還有哪些問題待解?應該如何解決?目前的法規是否足以回應技術創新、政府行政,以及企業轉型的需求?是我們共同關注的重要命題。
「人工智慧基本法」的正式實施,是台灣人工智慧法制化的重要里程碑,但只是一個起點。分析目前法規框架、各部會現有配套方案,比對企業AI落地應用,仍存在巨大的實務斷層需要填補。
為了協助建立一套兼具「可信任(Trustworthy)」與「永續(Sustainable)」的 AI 治理框架,確保技術能在安全、合規、透明與責任的基礎上長期運作,人工智慧科技基金會(AIF)攜手 Cisco 台灣思科舉辦閉門專家會議。透過不同領域專業的對話,為台灣產業AI化從「法制化」走向「規模化落地」,定錨出務實可行的操作策略。
本次會議邀集產、官、學界代表,聚焦探討「可信任與韌性 AI」之發展路徑。與會專家不約而同指出,當前實務上正面臨「資料流通受阻」、「驗證標準缺乏」及「權責機關不明」等三大關鍵挑戰。這三項有些是「因」,有些是「果」,因果關係糾結互相影響,需要有宏觀的系統框架,再結合梳理不同領域細節的專業能力,才可能實現「可信任AI」的目標。
社會信任薄弱,資料整合舉步維艱
當前許多產業在資料應用上寸步難行,即使是經去識別化的資料,企業與機構也不敢輕易使用。究其根源,在於社會對資安與個資保護的信任基礎相對薄弱。另一方面,台灣雖擁有高品質的醫療數據,但受限於法規解釋模糊與嚴格的隱私保護(如 IRB 與電子同意書效力不明),導致資料無法上雲端。由於缺乏明確免責規範,醫院只能將自己框限在封閉環境中,甚至連教學用的數據都不敢碰觸。
同樣的困境也發生在模型訓練端。由於創作者對授權權利的不確定性,加上擔心作品遭濫用,許多文化內容創作者拒絕將作品授權給政府或企業進行模型訓練,使得可用於訓練台灣本土模型的在地文化資料極度匱乏。
缺乏驗證標準,醫療產業的「合規焦慮」
雖然「人工智慧基本法」已明訂七大倫理原則與風險分級概念,但在落地執行的技術層面上,卻因缺乏具體的標準規範,導致第一線人員在導入 AI 時陷入「合規焦慮」。企業深怕在無官方背書的情況下誤觸紅線,甚至擔憂陷入「系統開發完才發現違法」的窘境。
例如高度依賴認證體系的醫療領域,這種焦慮尤為強烈。過往在食藥署(TFDA)嚴謹的規範下,醫療器材只要通過認證,醫師便能安心使用且責任釐清明確。然而,面對 AI Agent 或大語言模型這類新興技術,國內尚無類似 TFDA 的明確規範與認證機制,導致醫院在導入生成式 AI 時,缺乏如同過去一般明確且可遵循的標準。
而開發者與導入單位最擔心的,莫過於現在投入資源進行開發,未來驗證標準出爐後,卻發現現有架構可能都違法。在風險分級未定、技術標準不明的情況下,許多握有關鍵數據的單位只能採取最保守的態度觀望,讓原本應加速發展的 AI 創新,因缺乏明確的遊戲規則而被迫踩下煞車。
關鍵不在技術,行政權責不明是最大阻攔
另一方面,權責機關不明與找不到主責單位,則是目前台灣推動 AI 落地時最嚴重的行政與治理障礙。由於 AI 議題涉及多個部會,但在缺乏整體策略架構,以及主導單位協調的情況下,公務機關與產業界在面對灰色地帶時,往往容易因無人敢拍板負責而陷入停滯。
許多問題的癥結並非技術不可行,也不是法規禁止,而是公務體系長期以來形成的「不敢裁量」文化。 以「採購法」為例,法條本身其實保留了彈性空間,但在防弊重於興利的氛圍下,公務員往往選擇最保守的解釋。面對 AI 這種充滿未知的新技術,若缺乏明確的「免責條款」或高層的具體授權,基層公務員為了避免踩到紅線或捲入圖利爭議,自然傾向於「不做不錯」。
企業端導入 AI 的三大隱形路障
至於產業端面對的挑戰,除了政策因素之外,更多的是實際落地部署的問題。在這幾年的發展之後。根據多項調查結果與實際觀察,許多企業在導入過程中面臨極高的失敗率,主要源於三大困境,分別是基礎架構鴻溝(Infrastructure Gap),亦即現有 IT 架構無法支撐 AI 的算力與傳輸需求;信任鴻溝(Trust Gap),除了缺乏驗證標準與當責機制外,還包括社會與安全信任的薄弱,缺乏對 AI 決策的可解釋性與安全性的信心;第三則是數據與技術鴻溝(Data & Technology Gap):數據孤島與技術整合的斷層。
「基礎架構鴻溝」不僅是硬體算力不足的問題,更涵蓋了軟體堆疊缺失、法規限制與規劃盲點等多重挑戰。 首先,面對 生成式AI 帶來的技術衝擊,許多企業缺乏專屬的 AI Service Stack 來處理如 Prompt Injection(提示詞注入)防護、模型幻覺偵測等新型態需求。
其次,公部門與醫療、金融等高監管產業,受限於高敏感資料不得上雲的「地端限制」,無法調用公有雲上的先進模型,必須投入更多技術人力。然而,技術人力無論在數量或能力方面,都明顯有所不足。在缺乏雲端生態系的封閉環境下,要將這些異質技術與底層模型進行穩定整合與維運,具有極高的技術門檻。
再者,機關在規劃 AI 基礎設施時,往往因缺乏經驗與歷史數據支撐,對於該採購多少 GPU、頻寬需求為何、如何與既有系統整合、如何符合七大原則......每個環節都是未知,陷入「瞎子摸象」的規劃困境,導致採購規格與實際業務需求間存在巨大落差。
自動化越高,「韌性」越關鍵
此外,隨著製造業的「關燈工廠」運作日益成熟,自動化程度的提升更加凸顯了「韌性(Resilience)」的重要性。Cisco指出,韌性並非單指系統不中斷,而必須呼應「人工智慧基本法」中的核心原則,包括「人類協作(Human-in-the-loop)」的介入機制、資訊安全協定,以及數據治理(Data Governance)。
在數據價值方面,對製造業而言,機台產生的 Machine Data 是核心資產;對醫療業而言,則是病歷與儀器數據。未來的數據戰略,應是將這些高價值的 Machine Data 注入模型中,並與 Human GPT 結合。以金融業為例,目前已有銀行嘗試在「交易後處理(Post-trade)」流程中進行微調(Fine-tuning),讓模型同時理解人類數據與機器數據,以即時反應當下的情境(Context)。這種 Data-based 的融合策略,將是精準醫療與智慧製造的下一個突破口。
當 AI 開始掌管生產線,企業必須具備更嚴謹的「問責(Accountability)」與「當責」機制,確保在自動化決策鏈中,數據的流向與決策邏輯仍然可被追溯與管理。
然而,許多企業在部署 AI 時,往往存在「沿用現有的 IT 監控工具即可」的誤解。事實上,傳統 IT 系統運作的路徑是預先定義好的;但 AI 應用的推論路徑與資源調用具有高度不確定性。現有的監控工具往往無法穿透 AI 的黑盒,導致企業無法掌握 AI 應用的真實健康狀況。這也意味著,為了支撐這種動態負載,混合雲(Hybrid Cloud)與多模態模型架構將成為必然趨勢,企業唯有打破地端限制,才能實現真正的資源與數據再利用。
企業必須重新設計能適應動態互動的資安架構,而非仰賴舊有的基礎設施。這也帶回了「人工智慧基本法」強調的「透明性」與「當責」問題:當 AI Agent 自主決定了一項錯誤的操作,責任歸屬究竟在於人類管理者,還是模型本身?這將是企業在擁抱 Agentic AI 前,必須在技術與治理層面釐清的前提。