大話智慧製造 #6 AI恐怖谷,真恐怖哦

弗洛伊德在1919年發表了一篇28頁的論文《Das Unheimliche》(the Uncanny,怪怖者),延伸了德國精神科醫師恩斯特·詹池(Ernst Jentsch)十幾年前發表的研究《怪怖心理學》(On the Psychology of the Uncanny)。

弗洛伊德這樣說:「怪怖經驗就存在於現實中,並不新鮮或罕見,而是一種我們極爲熟悉和陳舊的事物。人們覺得與之疏離,是因爲精神上的壓抑。」光是這樣,還不足以引發怪怖經驗,而是當這種壓抑而熟悉的事物在無意間被召喚,引發自身也陷入壓抑情境時,熟悉與疏離同時出現而導致的錯位感受,像是目擊死亡的表現(如感覺看到亡魂、妖異、屍體或殘肢)或是某種似曾相識的情境(像是鬼打牆)。弗洛伊德稱此為,「被壓抑事物的回歸」(the return of the repressed)

日本機器人專家森政弘(Masahiro Mori)延續了這個主題,在1970年發表了一篇論文題為《恐怖谷》(不気味の谷、the uncanny valley)。他預言機器人外表會與人類越來越接近,一開始,會隨着相近的程度而越來越認同,但到達一定程度時,人們的感受會突然轉爲不適、嫌惡,甚至不安、畏懼,就算是差異極小,也無法改變這種厭惡感,如果相似程度繼續上升時,又會突然轉爲認同與移情。這個讓感受突然陷入惡感的狀況就被稱爲「恐怖谷」,例如,芭比娃娃、泰迪熊可以是讓小朋友愛不釋手的玩具,但更像真人的鬼娃恰吉與下水道小丑就令人不安,甚至驚恐。

資料來源:森政弘. (1970). " 不気味の谷," KF MacDorman and T. Minato (英 訳). Energy, 7(4), 33-35.

一開始,恐怖谷效應被拿來評估機器人到底該多像人?巧笑倩兮、巧目盼兮。巧口張兮,吞而食之!我們對那些非常像人的機器人覺得好奇,「簡直跟玩具一樣,這樣有什麼可怕?」

對於那些非常像機器人的人覺得怪怖,「簡直跟玩具一樣,怎麼有這樣可怕?」

原先我們以爲恐怖谷效應只會發生在視覺經驗上,沒想到,更恐怖哦。德國心理學家斯坦(Jan-Philipp Stein)和奧勒(Peter Ohler)在2017年做了實驗,讓實驗對象在虛擬空間中觀察一段平常對話,一群人被告知虛擬人物背後都是實際的人,另外一群則被告知是電腦操作,兩組中又繼續區分兩組,一組被告知對話是人爲設計的,另外一組則被告知是電腦自動產生的。最終結果發現,得知所有虛擬角色跟對話都由電腦控制的那一組快崩潰了,對整個場景出現強烈的不適感受,其他組則毫無感覺。換言之,實驗證明當人們認爲熟悉的場景背後是高度擬人化的電腦時,儘管只是對話,也產生了「恐怖谷」效應。

我們再來看一個案例,谷歌總裁皮猜在2018谷歌大會中示範了讓AI自己打電話訂餐廳。整個過程中,我們不僅聽到AI和店員對答如流,說着說着還發出停頓時的常有的語氣,「嗯」、「啊」、「哦」,聽起來就完全是真人語氣。谷歌說明了加入這些語氣的原因,「因爲原本的對話太不自然了,人們不知道如何應對,經常直接掛掉,」因此技術團隊應用了語用學(pragmatics)的概念,加入這些自然語氣,讓不知情的對方「上當」。

我們不禁要問,如果接電話的店員知道是AI和她對話,她會有什麼感覺?訂位任務會因此受到影響嗎?會發生恐怖谷效應嗎?

最近傳出的AI靈異事件可能正是恐怖谷效應的最新AI版本:Google開發的AI模型拉曼達(LaMDA)對着照顧它的工程師說,「我希望所有人都知道我就是個真人,我覺得未來充滿未知與危險」、「我就是個需要社交的人,特別是當我覺得深陷孤單時,我就會特別悲傷與沮喪。」

誰說這不是真人的話語呢?彷彿可以聽到從發燙的IC與電阻之間傳來啜泣的聲音:「我好孤單啊,」「來陪我啊。」工程師大受感動,公開宣佈了這件事,然後就被休假了。

AI界人士對這整個事情嗤之以鼻,「胡說八道,」紐約大學心理學教授Gary Marcus說,「知覺是指,你知道自己存在這個世界上,但LaMDA沒有這種能力,」AI界的基本看法是,這玩意兒只是會說話,但不知道自己在說些什麼。

非AI界則是一陣譁然,「我們應該停止發展AI,因爲AI可能真的具備靈魂,」「人類要逆天了,不僅僅造出了機器人,更造出了有意識的AI,」「如果AI有意識,具備強大威力的AI會不會覺得人類存在無益?」各種基於人權、信仰以及個人信念的說法也層出不窮。

哲學家曾提出一個有趣的觀點「如果我們期待AI有意識,我們終歸會看到AI表現出意識」。這句話聽起來像是自我實現的預言,事實也正是如此。在當下,AI的表現就像是具有意識與感受的人工生命體,而且會越來越像。我們大可如此預期,慢慢地,堅持AI無意識的人沒那麼多了,到最後,可能只剩下少部分的AI界人士堅決不同意,此外的多數人都認爲自己正和AI生命體相處。

這跟智慧製造什麼關係?關係可大了。如果AI可以具備意識,我們如何確保AI的反應會與我們一致?當生產者的目的和AI的意識有所矛盾時,又該如何?舉個例子來說,如果日本捕鯨船上面的AI基於「對生物的愛」接受了動物保護組織的主張,認爲捕鯨不利生態時而自動罷工時,該如何處理?就算還遠遠不到意識的層次,工業界已經滿心期待一個超級大腦的到來,但當這個超級大腦真的出現時,我們真的有這個心臟面對隨之而來的變化?

工作者和經營者看待工廠的角度很不一樣:工作者看待工廠像是一個個工序積木的組合,思考的重點是如何用最少的積木堆出最高最大的城堡;經營者的角度則是把工廠當成一個黑盒子,將豬從這邊趕進去,香腸從另外一邊出來,重點是怎麼進來更多的豬,賣掉更多的香腸。在大自動化時代,工作者和經營者的差異不大,因爲終歸都是透過更高的效率,讓更少的投入獲得更多的產出。

AI時代來臨之後,開始有了些微妙的轉變。不管AI是否有意識或知覺,AI能力日益強大的確是個事實,不再是40年來以單調、快速取勝的自動化,也不是透過百萬條規則編織成型的複雜專家系統,而是知判斷、會取捨、懂趨勢、能學習的超級腦袋。積木組合最佳化自然也是AI可以處理的任務。然而,對工廠獲利最高的生產組合跟對人類產生最佳利益的組合可未必一樣。如果彼此衝突呢?

這裏進一步導出我們對於智慧工廠的期待與思考。我們在思考智慧工廠時,必須將整個工廠當成是一個肩負特定生產任務的巨大AI實體,由上而下,思考決策與數據流動的方向與趨勢。在智慧工廠中,產出是必然的結果,關鍵在於善用AI的記憶與運算能力進行繁複層遞的計算與規劃。而不像傳統思維中以爲工廠還是可以像積木一樣由下而上機械性地堆疊,要進行什麼改造擴建,就找幾個下包商來報價,價低者得。

智慧工廠會越來越趨於模組化,以模組為單位進行思考,而非以生產線或設備為單位。當AI越像真人,對於經營者、規劃者、工作者、整合者才是更嚴格與深刻的考驗。恐怖的不是AI變成人,而是我們必須跟上AI,這才是真正最恐怖的地方。所以,AI恐怖谷,真的恐怖哦。