You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

盡信ChatGPT 不如無ChatGPT (林邦源)

By on April 22, 2023

本文作者林邦源,為香港中文大學商學院市場學專業應用副教授、EMBA課程主任,為《信報》撰寫專欄「商管啟示」

前人說:「盡信書,不如無書。」我建議今天這句話可修改為:「盡信ChatGPT,不如無ChatGPT。」時代雜誌(Time)在2023年3月29日報道,全球很多科技界的名人發公開信,希望所有領先的人工智能(AI)實驗室,可以在未來6個月暫停發展更厲害的AI系統。信中提到,最近的AI發展已經對社會及人類構成嚴重風險(profound risks to society and humanity),更指「先進的AI應該有足夠的資源去小心規劃和管理」,不幸的是,這種級別的規劃和管理並沒有發生。最近數月,AI實驗室陷入了一場失控的競賽,開發和部署更強大的系統,沒有人(包括系統的創造者)能理解、預測或控制。

很多人都憂心忡忡, 希望各間公司能自願暫停發展更厲害的AI。(新華社資料圖片)

ChatGPT類的大型文字模型AI有什麼問題呢?

在網上可以找到以下片段:Yoshua Bengio on Pausing More Powerful AI Models and His Work on World Models。號稱「Deep Learning之父」的加拿大教授Yoshua Bengio,也簽署了聯署信,希望能暫停發展AI系統。他是AI方面的專家,在2018年與另外兩名教授Geoffrey Hinton及Yann LeCun一同得到有如電腦界諾貝爾獎的圖靈獎Turing Award(詳情可參考https://yoshuabengio.org)。

Bengio認為,今天AI的發展已經到了圖靈測試所說的:人機分不了。我們只看AI聊天機械人ChatGPT的回答,會分不清究竟是真人回覆我們,還是這屬於由AI生成的回覆。ChatGPT收集了大量文字資料後,可以根據已有的文字去猜測下一個字、下一個句子,哪一個才是好的回應。

ChatGPT收集了大量文字資料後,可以根據已有的文字去猜測下一個字、下一個句子,哪一個才是好的回應。(Freepik 網上圖片)

沒建立因果關係邏輯推理

不過,Bengio指ChatGPT沒有分開以下兩個不同的概念:關於世界的知識(Knowledge of the world)和如何決定?(How to make decision?)現實是科學家和工程師等會區分兩者,例如下棋,我們會有下棋的知識,每種棋子可以有的步法, 某AI下棋的系統會根據這些下棋的知識,不斷去學習,令作出的決定(所走的棋步)可以贏到真人棋手,甚或是其他AI的下棋系統。

我同意Bengio教授所提出、ChatGPT只是吸收了大量網上資料,並沒有建立一整套關於世界的知識、因果關係、邏輯推理等,使用了ChatGPT後,用家有可能會產生幻覺,當看到很多正確的回答後,便習以為常,以為ChatGPT的回答是真的。

ChatGPT也有特別顯示了以下幾句提示,告訴用家要小心使用。

有意見認為,今天AI的發展已經到了圖靈測試所說的:人機分不了。(Freepik 網上圖片)

各國不甘墮後 AI發展難煞停

「這是一個免費的研究預覽(This is a free research preview),我們的目標是獲得外部反饋,以改進我們的系統,並使它們更安全(Our goal is to get external feedback in order to improve our systems and make them safer)。雖然我們有適當的保護措施,但系統可能偶爾會生成不正確或誤導性的訊息,並產生令人反感或有偏見的內容,它無意提供建議(While we have safeguards in place, the system may occasionally generate incorrect or misleading information and produce offensive or biased content. It is not intended to give advice)。」

可以在接下來的6個月暫停發展更厲害的AI嗎?

很多人都憂心忡忡, 希望各間公司能自願暫停發展更厲害的AI,說就容易,執行卻十分困難,這需要每個國家盡快制定規例,也需要不同的國家互相溝通及協調,如果只有一個國家暫停國內公司發展AI,該國在這方面就會輸給其他國家。

其他林邦源文章:

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們