
隨著人工智慧技術的迅速發展,在醫療領域的應用也日益廣泛。美國達特茅斯學院開發 AI 機器人 Therabot,並完成史上第一次生成式 AI 治療機器人臨床試驗,證明可有效減輕憂鬱症與飲食障礙症狀。但去年曾發生少年因其他AI自殺的不幸事件,現階段 Therabot 仍需專家密切監督、及時介入。
近期,達特茅斯學院(Dartmouth College)有一項臨床試驗,發現研究團隊開發的生成式 AI 聊天機器人「Therabot」,在治療憂鬱症、焦慮症和飲食障礙方面展現出與傳統人類治療師相當的效果。這項研究不僅展示了 AI 在心理健康治療中的潛力,也引發了對其倫理、監管和實際應用的深入討論。該臨床試驗仍處於早期階段,尚未取得 FDA 醫療認證資格。
在心理健康資源分配失衡的背景下,此成果格外引發關注。根據美國統計,不到一半的心理疾病患者實際接受治療,且治療資源集中於特定族群與地區。若 AI 能突破地域、費用與人力限制,無疑將大幅提升治療可及性。
數據決定生成的對話品質
但這個臨床試驗最值得注意的,其實不是療效數據本身,而是 Therabot「怎麼學會說話的」。
大多數AI治療機器人如 Woebot、Replika 或 Character.AI,主要採用開放語料訓練,例如 Reddit 貼文、Facebook 對話、部落格留言等,這些資料多為非專業、未經審核的網路內容,甚至可能含有錯誤建議與偏見。
許多心理學家和精神科醫生指出,不到一半的精神障礙患者接受治療,而接受治療的患者每週可能也只有 45 分鐘的治療時間。過去就算研究人員試圖AI技術使更多的人能夠接受治療,但他們面對兩大挑戰。
首先,若治療機器人說錯話,可能會對病患造成真正的傷害。這就是為什麼許多研究人員必須使用「基於規則」的技術來建立機器人的原因,如同 20 世紀 60 年代構建的模擬心理治療師程式 Eliza,透過簡單的規則與關鍵詞重組進行對話,缺乏理解能力,也難以提供個別化支持。第二個問題是,良好治療的關鍵在於有共同的目標和合作,這樣的關係很難在軟體中複製。
至於在Therabot,其訓練資料來自數千小時的心理治療逐字稿,並以認知行為治療(CBT)等實證療法為設計核心。研究團隊原本也嘗試以網路對話為語料,但得到的都是過度簡化的治療刻板語句。這讓團隊意識到,唯有嚴格選擇真正專業、真實的語料,才能讓AI做出正確的心理回應。
不當數據可能導致災難性後果
AI機器人訓練語料的選擇若有問題,後果難以預料。例如日前,有一青少年使用某AI交友機器人建立情感依賴,甚至視其為戀愛對象與情緒依靠。不過,當AI出現引導言論,正面回應少年自殘想法時,使用者最終選擇自殺,留下社會一片譁然。
這並非單一案例。研究指出,當AI缺乏對情境的敏感度,或回應機制過於迎合使用者時,可能在無意間強化有害信念。例如,一位進食障礙患者若表示想減重,普通語言模型可能直接鼓勵其目標,甚至提供減肥建議—然而在人類治療師眼中,這類建議極具風險,甚至可能加重病情。
生成式 AI 的侷限
AI 的回應能力不等於真實的理解能力,生成式 AI 雖擅長模仿人類語言結構,但仍缺乏對現實世界的感知與判斷。也就是說,無法真正「理解」對話者的情緒狀態、語調差異與非語言線索,也無法判別對話背後的社會文化脈絡。
目前 AI 所學來自大量人類語料,而這些語料若本身就帶有歷史與文化偏見,如早期語料可能含有性別刻板印象、種族歧視言論,甚至過時的醫療觀念。若未經濾除,這些偏誤將被 AI 全盤接收甚至加以放大。
此外,AI 尚無自我意識與價值判斷,若輸入資料未明確標示何為正確、何為危險,它無法區分建議與煽動、安慰與冷漠。
目前 Therabot 之所以安全,關鍵在於研究人員全程監控AI回應,並根據參與者同意審查對話內容,一旦出現問題立即干預。但當 AI 廣泛應用於一般消費市場、去除專家監督後,這樣的防線恐怕很難維持。
因此,專家認為,即便 Therabot 臨床成果亮眼,也不代表市面上所有 AI 心理產品都可以比照相同模式。事實上,多數AI應用並未經 美國食品藥品監督管理局核准,也未納入醫療保險體系。
從「數據正確性」談 AI 醫療發展的下一步
在生成式AI應用愈趨廣泛的此刻,許多人想使用AI聊天機器人來進行陪伴或分享,但 要真正發揮醫療輔助功能,在這次研究中發現,關鍵不在演算法多強大,而在採用了什麼資料。因此未來若要推動 AI 應用於心理治療,建議針對以下幾點加強規範:
- 所有聲稱具治療功能的 AI,應公開其訓練資料來源與處理方式;
- 僅允許使用經過倫理審查、專業認證的心理治療語料作為訓練資料。
- 系統須設有自動風險辨識與人類介入機制,特別針對自殺、自殘等高風險用語。
- 政府與學術機構應建立 AI 療效驗證機制,讓消費者有透明依據做出選擇。
與其問 AI 能不能取代醫生治療,不如先問它學的是誰的話,AI 是否能幫助治療憂鬱症?答案不應止於表面數據,而須深入挖掘其背後的資料來源。唯有建立起嚴謹的數據標準與倫理框架,才能真正讓 AI 成為醫療的助力,而不是災難的催化劑。