蔡炎龍:AI能解決問題,但不會問問題

你今天ChatGPT了嗎?隨著AI工具的推陳出新,越來越多人開始利用AI工具協助工作效率,不過,國立政治大學應用數學系副教授蔡炎龍指出,當你需要利用ChatGPT解決問題時,最重要的是問一個很好的問題,而這也是目前AI還沒有辦法取代人類的事情。

蔡炎龍認為,與其說取代人類,ChatGPT更像是代理人,越會使用它,就能得到越好的效果,也就是說「你越厲害,它其實就會變得越厲害。」他強調,ChatGPT並沒有意識,所有的一切都是算出來的。怎麼算?

ChatGPT並沒有意識,所有的答案都是算出來的

蔡炎龍提到,許多人在使用ChatGPT時,會發現內容中有許多不實的資訊,很會亂說就像一個「唬爛王」,但這也是它很重要的一個功能。

ChatGPT的原理得從神經網路說起,最大的特色就是必須有大量的訓練資料。他說明,我們以為文字生成模型的運作是:「輸入一段文字」,然後得到「一串由模型生成出來的文字」。但是,實際狀況是輸入一個「字」後,模型會根據之前閱讀過的大量資料,從中預測最適合往後接的「字」。簡單來說,就是根據前面出現的字,預測下一個字。且不管輸入什麼內容,模型都可以接著生成下去。乍看單句似乎有意思,但整篇文章可能不知所云。(瞭解更多GPT系列的技術:從GPT-2到GPT-3,語言模型的未來?

蔡炎龍說,為了提升生成內容的可信度與完整度,ChatGPT做了幾件事情,首先就是讓真人去生成範例,所以可以感受到ChatGPT的回應有些固定的模式,那是因為從真人訓練過來的。但因為其訓練資料太過龐大,真人的訓練量無法與之相比,所以又換了其他方式,讓ChatGPT為自己的回應評分,也就是針對回答進行排序,再用強化學習(Reinforcement Learning)提升成效。

「GPT是沒有意識的,至少沒有像人類這樣的意識,」蔡炎龍強調,GPT的回應完全是計算出來的,也就是透過數學公式運算,再隨機抽取出的。這一點也說明了,外傳ChatGPT具有九歲小朋友心智的說法並不是很精確。

那麼,ChatGPT也會預測股價嗎?蔡炎龍說,在了解人工智慧的技術原理之後,當我們看到AI應用時,要思考的是它使用什麼方法。循著這樣的思路可以看到,大部分預測的方式,都是輸入一段新聞標題,請ChatGPT針對某一家公司的股票,判斷是利多還是利空。這是一個很標準的機器分析的問題,而這樣的正確率其實也只比丟銅板好一點。(瞭解更多生成式AI:生成式AI沒極限!語音與人臉能產生什麼火花?

ChatGPT還無法做到這件事:問一個好問題

「你希望它解決什麼事情,就必須要問一個很好的問題,這個好問題可能是在生活、事業,或學業上的一個重要的問題,」蔡炎龍強調,深度學習最重要的就是問出一個好問題,而目前只有人類可以做到,AI尚無法完全取代這件事。即使是備受稱讚的Auto-GPT,也沒有辦法做到。

他認為,ChatGPT這類型的AI工具就像是智慧型的對話代理人,當使用者越知道如何使用它,他就會幫你做得越好。而在未來的世界裡,當AI越來越會解決事情,人類如何更擅於提出問題就是一件很重要的事。