
當AI 已廣泛應用於製造、金融與醫療等台灣關鍵產業,但安全治理卻常被視為「事後補課」。根據調查數據,許多企業在AI的投資快速增加,但對資安的相關投資卻反而減少,這是相當值得注意的警訊。
從客戶體驗到風險管理,人工智慧的應用潛力無所不在,是企業數位轉型的核心焦點。然而,然而,多數企業多半忽視了 AI 系統的安全性,且鮮少在設計初期就思考潛藏的風險,這種缺口一旦擴大,恐將演變成難以補救的隱憂。
麻省理工學院史隆管理學院(MIT Sloan)高級講師暨首席研究科學家 Keri Pearlson 與巴西 C6 Bank 技術長 Nelson Novaes Neto 共同開發一套框架,透過十個策略性問題,協助高階主管及團隊在 AI 系統開發初期就納入安全設計,避免淪為部署後的補救措施。
AI 系統並非單純的企業套裝軟體,它們的資料依賴性、持續學習能力和機率性輸出等特性,使其面臨新的且不斷增加的網路威脅。這些風險無法在事後修補,且傳統的 IT 架構框架、安全模型以及 NIST 和 ISO 的安全標準都無法完全涵蓋 AI 獨特的資安挑戰。
根據這份報告內容,目前最緊迫的 AI 威脅包括:
- 規避與投毒攻擊:惡意輸入扭曲模型輸出或污染訓練數據。
- 模型竊取與反推:攻擊者竊取專有系統或重建敏感資訊。
- 提示注入攻擊:操縱輸入,使系統洩漏資料或執行惡意行為。
- 隱私攻擊:利用漏洞竊取 AI 系統處理的敏感資訊,造成資料隱私與機密性破壞。
- 幻覺:系統自信地輸出錯誤資訊,削弱信任或誤導使用者。
這些風險事後無法簡單修補,而現有的 IT 架構框架、安全模型,以及 NIST、ISO 等安全標準雖能涵蓋部分議題,卻無法全面解決。「沒有任何一個標準位於 AI、安全與設計的交集上,」Pearlson 指出。
導入 AI 前,高階主管的十大提問:
為了彌補資安差距並解決上述問題,該框架將複雜的資安架構轉化為10個清晰的策略性問題。這些問題旨在早期發現漏洞、權衡取捨,並確保AI安全從一開始就融入策略中,而非部署後才附加。
這10個問題及其目標包括:
- 策略對齊:如何讓 AI 計畫與組織目標、預算、價值觀與道德一致?
- 風險管理:能採用哪些方法來識別、評估與優先處理 AI 特有的風險?
- 控制措施:將採取哪些控制與工具來降低已識別的 AI 風險?
- 政策、標準與程序制定:制定哪些政策與程序,以確保數據品質、隱私、倫理與資安?
- 治理架構:將採取什麼治理結構來監管 AI 專案的開發、部署、安全與營運?
- 技術可行性:所提 AI 架構是否與現有基礎設施相容?
- 資源分配:所需的安全投入程度為何,將如何分配資源?
- 效能與安全監控:用哪些指標來追蹤 AI 的效能與安全性?
- 持續改進:採取哪些機制來支持 AI 實踐的持續監測與調整?
- 利害關係人參與:如何傳達 AI 安全、隱私與倫理的重要性,以促進共同責任?
研究團隊與巴西數位銀行C6 Bank合作試點計畫。這家沒有實體分行、擁有超過3,000萬客戶的金融機構,在客服、詐欺偵測等領域大量使用AI。
導入此框架後,C6高層透過這10個問題,系統性地梳理出19項關鍵設計考量,從建立「模型無關」的基礎設施,到打造專為AI風險設計的治理模式。最終成果包括:1.建立四層式平台: 將實驗性AI與生產系統嚴格分離,兼顧創新與安全。2.優化資源規劃: 更精準評估與投入AI安全所需資源。3.催生治理手冊: 法務與合規團隊以此為基礎,制定了AI專用手冊,明確了監管風險與內部期望,大幅提升了利害關係人的信心。
AI 佈局需從信任開始
當AI 已廣泛應用於製造、金融與醫療等台灣關鍵產業,但安全治理卻常被視為「事後補課」。根據調查數據,許多企業在AI的投資快速增加,但對資安的相關投資卻反而減少,這是相當值得注意的警訊。
對於正力拚轉型升級的台灣產業而言,打造「可信賴AI (Trustworthy AI)」不僅是防禦性的資安議題,更是贏得全球客戶信任、鞏固供應鏈地位的關鍵一步。唯有在設計初期就將安全納入藍圖,才能避免日後因模型被竊取、數據外洩或錯誤輸出而引發信任危機。MIT的這套框架提醒我們,AI風險無法完全避免,但可以也必須有效管理。企業領導者必須對此有所認知,從上而下地提出正確的問題,做出更明智的決策。
我們將在8月20日邀請 Google DeepMind 研究副總裁紀懷新博士和多位產業 AI 專家分享《從數據整合到風險治理:金融、醫療、製造業的挑戰與機會》。邀請大家一起來參與討論,檢視過去成果、展望未來機會。