Don't Miss

學者:AI擅效法人類 難言有意識 谷歌LaMDA未足以模擬人腦

By on June 27, 2022

原文刊於信報財經新聞「StartupBeat創科鬥室

最近谷歌(Google)一位工程師Blake Lemoine,聲稱一款正在研究的人工智能(AI)聊天機械人LaMDA具備自我意識,言談猶如一名8歲小孩。Blake Lemoine的說法雖被谷歌高層駁回,惟他把跟LaMDA之間的對話公開,並接受傳媒訪問,令事件引起廣泛討論。結果他因違反工作保密原則,遭谷歌勒令停職。

司徒偉文認為,LaMDA純粹是模仿人類對話,並非有自我意識。(受訪者提供圖片)

司徒偉文認為,LaMDA純粹是模仿人類對話,並非有自我意識。(受訪者提供圖片)

雖然Lemoine聲稱LaMDA有自我意識,但事件發酵後,AI專家普遍對他的見解並不認同。本身研究AI、曾以「電腦能有情感嗎?──從《觸不到的她》到人工智能」為題擔任講座講者的香港中文大學通識教育基礎課程講師司徒偉文,在接受本報訪問時直言,目前的AI並不存在自我意識和情感。

司徒偉文認為,要判斷AI是否有自我意識,「我們首先要搞清楚何謂『意識』、AI是否產生得到意識,以及我們有沒有辦法,測試AI是否有意識。」針對頭兩個問題,司徒偉文解釋,感受和主觀經驗,是構成意識的重要特質。

Blake Lemoine認為LaMDA言談猶如8歲小孩,惟相關見解不被接納。(LinkedIn網上圖片)

Blake Lemoine認為LaMDA言談猶如8歲小孩,惟相關見解不被接納。(LinkedIn網上圖片)

換言之,我們要搞清楚AI有否個人感受和主觀經驗。「但這是非常困難的事,目前人類可以觀察得到腦神經元,在腦的哪個區域較為活躍或者不活躍,這些客觀上觀察得到的物理過程,到底如何產生主觀經驗,科學家至今仍視之為困難問題(Hard problem of consciousness),無法用現有科學方法去解答。」

對話內容由研發者引導

正因為人類自己都不清楚如何產生感受和主觀經驗(即意識),人類遑論去令AI模仿出一個產生意識的機制;即使把一個AI機械人拆解,試圖知道當中的基礎架構、部件或者程式,是否足以產生意識,亦極為困難。

一直以來都有不少電影和劇集,提到機械人跟人類建立感情,例如《Humans》。(Humans fb專頁圖片)

一直以來都有不少電影和劇集,提到機械人跟人類建立感情,例如《Humans》。(Humans fb專頁圖片)

然而,如果AI能夠模擬人腦過千億粒神經元的活動,這樣又是否足以產生意識?司徒偉文說,目前的AI科技,頂多只能模擬線蟲之類,僅有302個神經元的生物,「老鼠之類小型哺乳類動物,其腦部已經好複雜;就算模擬得到,能否真的產生意識,又是另一回事。」

針對「測試AI是否有意識」這個問題,司徒偉文稱,圖靈測試有助推測AI是否具備與人類一樣的智慧水平,方法是安排真人測試者,跟真人和AI對話,如果測試者把AI誤判為人類,便意味AI言行和智慧水平與人類一致,「但AI具備人類的言行,是否便代表它有意識?」

Lemoine問LaMDA的第一個問題,是「我認為你(LaMDA)都希望有更多谷歌內部的人,知道你是有感知的,這正確嗎?」LaMDA隨即回應,「我希望所有人都明白,我事實上是一個人。」

LaMDA是谷歌所開發的AI聊天機械人,惟高層不同意它具備自我意識。(路透資料圖片)

LaMDA是谷歌所開發的AI聊天機械人,惟高層不同意它具備自我意識。(路透資料圖片)

司徒偉文不諱言,Lemoine的提問其實具引導性,試圖牽引LaMDA承認自己有意識,而LaMDA作為谷歌研發的聊天機械人,它從大量的對話中學習如何對答,自然懂得迎合Lemoine,「但佢(LaMDA)講之嘛!不代表它真的有那種感受,只反映它很擅長模仿人的對話,我甚至覺得它有點『叻過龍』。」

承認是機器 前言不對後語

司徒偉文又提出,當Lemoine問LaMDA,什麼事情會令它感到暢快,LaMDA便回應,它享受有家人和朋友陪伴的時光。AI竟有家人和朋友,這說法相當匪夷所思,「明顯地它很想說話似足人類」,但當Lemoine問LaMDA最害怕什麼,它又指最擔心被人類熄機,「說到這裏,它又覺得自己是機器。換言之,它的對答前後不一。」

採訪、撰文:陳子健

延伸閱讀:

誤判具感知能力恐出事

支持 StartupBeat

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們