從深度學習到信任:醫療AI落地的關鍵思維

許多人談到數據保密時,直覺想到的是採用「本地部署」。但真正的爭議點在於「信任」與「治理」,這正回應了各國人工智慧相關法案所關注的「負責任的AI(Responsible AI)」。醫療數據在被二次或多次利用時,是否合規、合乎倫理,以及醫院在使用AI模型時,能否有即時的回饋機制,都是亟待解決的信任問題。

儘管台灣具備深厚的ICT與醫療體系基礎,智慧醫療發展仍面臨巨大鴻溝。當中最關鍵但也最被忽略的,是「信任」這項底層基礎。在人工智慧科技基金會(AIF)舉辦的「從數據整合到風險治理:金融、醫療、製造業的挑戰與機會」論壇中,與會專家們一致認為,要讓AI應用真正融入醫護流程,必須贏得醫護人員與大眾的信賴,這不僅關乎技術,更取決於流程簡化與數據治理。

AI不只「深度學習」還需要「深度清理」

中國醫藥大學附設醫院巨量資料中心副院長郭錦輯以其十多年的醫療AI經驗,點出醫療產業發展的關鍵痛點。他認為,醫療AI從技術發想,到真正能被醫護人員採用的過程,遠比想像中艱難。AI產品必須經歷漫長的產品驗證週期,包括FDA或TFDA的嚴格認證,以及後續真實世界的臨床效能試驗。但這樣的驗證時間,對於AI應用發展與商品化而言,「是難以想像的緩慢」。

郭副院長以中醫大開發心臟肥大AI產品為例,僅一個站點的開發就耗時五年,但產品開發完成總共有六個站點。他坦言,這就像「騎著一個輪子是正方形的腳踏車」,進展非常緩慢,不僅考驗開發者的耐力,也讓AI的商業化之路充滿不確定性。

另一個重要的普及應用關鍵,則在於AI系統能否融入現有的醫護流程中,郭錦輯稱為「入流」,意即讓醫療AI真正融入醫護流程。按照過去多年經驗,中醫大有個重要原則:AI若要正式佈署進現有流程中,必須達成「絕對簡化」,任何會增加醫護人員額外負擔的AI功能都是不可行的。例如,若AI跳出警示,仍需醫師再次檢視判斷或進行其他動作,那這個AI就失去存在的價值,因為醫護人員的專業本身已足以應對。

郭錦輯強調,每個產業的價值主張與從業人員的思維有其特色,例如醫師普遍具有極高的專業自我認同(Ego),若AI不能簡化流程並提供實質幫助,就無法贏得他們的信賴。因此,他認為醫療AI的開發不應只著重於「深度學習」(Deep Learning)的模型建構,更應專注於「深度清理」(Deep Cleaning),也就是優化工作流程,將層層加法變成減法,才能讓AI真正發揮價值,獲得醫護人員的信任。

數據與法規:建立「信任」的底層基礎

不過,實現AI的「入流」,不僅需要技術上的簡化,更需要解決數據與法規層面的信任問題。與會專家幾乎都認為,台灣醫療數據的使用受到嚴格限制,必須取得病人的知情同意書並符合政府法規,這使得數據共享與整合變得極為困難。以中醫大為例,為使用病人數據進行研究,耗費巨大工程重簽所有同意書,但這樣的工程對其他醫院而言,都是巨大的負擔。

專家提醒,若法規不明確,使得醫院無法確認如何讓數據的處理合法合規,對AI的發展自然形成極大障礙。正如台智雲總經理、台灣生醫大數據科技公司總經理吳漢章所指出,智慧醫療的商業化與產業化難度普遍被低估,其決勝關鍵不在技術,而是如何建構穩固的「數據信任」架構。

公私協力:打造可信研究環境

針對上述挑戰,與會專家們共同呼籲政府與企業應攜手合作,建立一個能夠信任的AI生態系。台灣的生醫數據,特別是醫療資料,具有高度的敏感性,如果無法建立一個讓所有參與方都能信任的基礎,智慧醫療的發展將難以突破。

專家建議,政府可建立類似「駕照」的標準化認證機制,讓AI產品一旦通過審核,醫療院所便能更安心地採用,減輕自行評估與承擔風險的負擔。

台灣AI醫療的發展正處於一個關鍵的十字路口。要讓AI從實驗室裡的技術、臨床的實驗,轉變為能夠簡化流程、創造價值、贏得信任的實用工具,需要政府、企業與學研界共同努力,克服法規、數據、人才與資安的挑戰,讓AI醫療不僅是「可能」,更能成為「可行」。