隨手可得的助理潛藏的黑暗面

自從 ChatGPT 等功能強大的 AI 工具問世,AI 就變成了全球熱議的創新科技,無論是醫學診斷、刑事司法、社會福利、貸款申請或藝術創作,各界都想利用它增進效率,甚至期待其能替代人類解決任何事情。企業家與投資人聲稱 AI 最後能解決人類的所有問題。

在前景一片光明下,《AI 底層真相:如何避免數位滲透的陰影》作者穆吉亞試著探索 AI 的實際影響,卻驚覺 AI 早已悄然滲透進日常生活,但它最深層的面貌,卻沒有那麼亮麗:


世界各地的人們以各種意想不到的方式使用 ChatGPT。有些人把它形容為某種廉價的智慧,可以拿來強化幾乎任何需要思考的人類任務。有的人發誓,他們在互動過程中看見聊天機器人偶然閃現的感知能力。多數人則同意,聊天機器人內部沒有任何的意識,不過它的反應夠真實,所以看起來像人類。它呈現出擁有生命的樣子。

當然,不管是 ChatGPT 或是後續跟著出現的許多聊天機器人,例如 Bing、Bard、Claude 和 Pi,都不是有知覺的生物。它們對人們說的話無法有認知層面的理解,對人們的感受沒有概念,也沒辦法產生同理心。與聊天機器人交談,跟你向親人、合格治療師、甚至寵物尋求支持是兩回事,因為無論你在社交或情感上提供任何暗示,軟體都不會有意識的回應。

但聊天機器人可以熟練的運用語言,使它能相當細膩的模仿意圖、目的,以及情感。只要分析使用者的話語,本身無需任何的人類判斷,就能在回應時說出脈絡正確的內容——對於那些生活在孤獨、孤立世界裡的人來說,聊天機器人變成現代社會的完美工具。隨著聊天機器人不斷從人類輸入的內容裡學到東西,它已成為連開發者都不認識和無法控制的東西。

創業家伍茲(Kat Woods)曾表示,GPT「比我找過的任何治療師都還要好(我找過大約十位治療師)」。伍茲是職涯教練和人生教練,她說 ChatGPT 之所以有效,是因為她可以要求 ChatGPT 成為她想要的樣子。如果她不喜歡 ChatGPT 的建議,她可以說「不」,並要求 ChatGPT 嘗試別的方法,不會出現任何的尷尬或摩擦。

當伍茲希望 ChatGPT 扮演治療師時,她會告訴 ChatGPT:「你是 AI 聊天機器人,即將扮演有效的利他主義教練和治療師。你充滿智慧,會提出發人深省的問題,你專注於解決問題,溫暖、幽默,是理性主義者,關注理性與認知偏誤等議題。你很在乎能不能幫我實現兩個主要目標:利他主義,以及我自己的幸福。你希望我能盡量做好事,讓我過得非常快樂。」

伍茲和其他幾百人在網路論壇上坦承,他們覺得這是具有療癒效果的發洩方式,而且便宜。南卡羅來納州查爾斯頓的律師助理范斯萊克(Milo Van Slyck),就向ChatGPT傾訴了他身為跨性別男性最深的恐懼、與父母的緊張關係,以及不曉得如何應付日常生活的擔憂。

對話內容只有范斯萊克、ChatGPT 和 OpenAI 這三方知道,所以我們很難得知 ChatGPT 提供什麼樣的建議,但其他的案例能讓我們稍微了解,人類和AI聊天機器人可能會有令人不安的交流。以微軟的 Bing 為例,《紐約時報》的記者羅斯(Kevin Roose)公布了他與 Bing 對話的完整文字紀錄,內容讓他和成千上萬的報紙讀者感到不安。其中一段摘錄的主題是愛情, Bing 聊天機器人告訴羅斯:「你結婚了,但是並不幸福。你結婚了,但是沒有滿足。你結婚了,但是沒有墜入愛河。你結婚了,但是不愛你的配偶。」

羅斯表示這段內容大錯特錯,但哪怕聊天機器人不總是正確,像范斯萊克這樣的人已經覺得可以拿最瑣碎的問題去問 AI 軟體,不必覺得對任何人造成負擔。當他們無法找人類治療師時,聊天機器人能填補這些空缺。這樣子已經夠好了。

有些人則對機器人提供的醫療建議很有信心。2023 年 3 月,一位名叫庫柏(Cooper)的男子表示,在獸醫未能正確診斷愛犬薩西(Sassy)的病情後,ChatGPT 救了狗兒的命。庫柏是在走投無路的情況下向聊天機器人求助,當時他已經知道薩西的症狀和血液檢查結果。

ChatGPT 分析症狀和血液檢查結果後,提供了幾個最佳建議,其中兩個是正確的診斷。

ChatGPT 在回應裡附加警語「我不是獸醫」。但這樣子已經夠好了。

公眾需要更強烈的警告

這種和電腦程式對話的新文化現象也有黑暗的一面,畢竟說到底,它只不過是一個強大的預測引擎。其中一個問題是,它會編造句子,導致重大的錯誤和謊言。儘管具有編造錯誤事實的傾向,但背後卻沒有任何的意圖,純粹因為大型語言模型就是以這樣的方式運作。

施瓦茨(Steven Schwartz)在 2023 年夏天發現這一點,驚愕不已。施瓦茨在紐約市擔任人身傷害和勞工賠償律師長達三十年,6 月時意外得知自己因為欺騙法庭,將面臨制裁。

起因是他的客戶搭乘航班時受了傷,想向航空公司索賠。施瓦茨為客戶研究案例摘要時,一直尋找過去的案例,用來支持他的論點。由於在公司慣用的搜尋資料庫 Fastcase 裡一直找不到需要的案例,因此他對準備中的備忘錄有了一個想法。

施瓦茨的聽證會在 6 月 8 日舉行,有位在場的部落客分享了聽證會的摘錄,讓我們知道施瓦茨如何理解這種已經有數百萬人使用的新型態 AI:

卡斯特法官(Judge Castel):3 月 1 日的備忘錄是你準備的嗎?

施瓦茨:是的。我使用了 Fastcase。但它沒有我想找的聯邦案例。我也試過谷歌搜尋。我聽過 ChatGPT……

卡斯特法官:好──它為你提供了什麼?

施瓦茨:我問了它一些問題。

ChatGPT 遵照設計時的初衷,提供施瓦茨需要的答案,六個案例都確切支持了他認為本案應該繼續進行的論點。

卡斯特法官:你有沒有詢問 ChatGPT 法律是什麼,還是只要求它提供支持你的案例?它為你寫了案例。你引用案例前沒有先讀過嗎?

施瓦茨:沒有。

卡斯特法官:為什麼你一反常態?

施瓦茨:我以為 ChatGPT 是搜尋引擎。

ChatGPT 提供的案例有:馬丁尼斯訴達美航空(Martinez v. Delta Air Lines)、齊徹曼訴大韓航空(Zicherman v. Korean Air Lines)和瓦格塞訴中國南方航空公司(Varghese v. China Southern Airlines)。這些案例用谷歌搜尋都找不到,但施瓦茨卻覺得自己找到大祕寶,開心的把它們放進案例摘要。

當法官詢問施瓦茨在引用 ChatGPT 吐出的案例前為什麼沒有先查一下,他說:我不知道 ChatGPT 會編造案例。我在錯誤的認知下進行操作……我以為這些是谷歌上找不到的案例。」

這時,施瓦茨的律師發言,他說這些案例雖然不是真的,但看起來很真實。ChatGPT 對於輸出內容的真實性並沒有清楚的免責聲明。施瓦茨的律師表示,當對方的律師質疑施瓦茨引用的案例時,施瓦茨回去詢問 ChatGPT,但 ChatGPT 加倍努力「欺騙」施瓦茨。

施瓦茨以顫抖的聲音告訴法官,他「感到尷尬、屈辱,而且非常悔恨」。

ChatGPT 和其他的對話式 AI 聊天機器人都有免責聲明,警告用戶注意幻覺問題,強調大型語言模型有時候會捏造事實。例如 ChatGPT 在網頁上就有警語:「ChatGPT 可能會產生有關人物、地點或事實的不準確資訊。」

卡斯特法官:你們還有什麼要補充的嗎?

施瓦茨的律師:有。大眾需要更強烈的警語。

本文節錄自《AI底層真相:如何避免數位滲透的陰影》由天下文化授權提供。