You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

誤判具感知能力恐出事

By on June 27, 2022

原文刊於信報財經新聞「StartupBeat創科鬥室

香港中文大學通識教育基礎課程講師司徒偉文重申,感知和主觀經驗,是意識的重要元素,但兩者都很「獨特」和「個人」,「意思是每個人對同一事物都有不同感受,例如有人見到藍色會覺得平靜,有人會覺得憂鬱,這就是『獨特』的感受;而這種感受只有自己才會清楚,其他人頂多只能透過你的表情,判斷你開不開心,因此感受又是很『個人』的事。」

司徒偉文認為,若果AI令人類誤判它具備自主意識和情感,已有其危險性。(受訪者提供圖片)

司徒偉文認為,若果AI令人類誤判它具備自主意識和情感,已有其危險性。(受訪者提供圖片)

倘投入感情或掀道德爭議

正因為LaMDA的對答太似人類,不少人或許都跟Lemoine一樣,在不期然間,嘗試估計LaMDA的感受,「所以LaMDA有自我意識和感知能力一事,Lemoine應該是『諗多咗』,但卻又是合理的,畢竟人類日常生活中,都是這樣去估計身邊人的情感。」

但司徒偉文認為,若果AI令人類誤判它具備自主意識和情感,已有其危險性,因為人類可能會對它投放個人感情,「正如卡通人物多啦A夢,假如它沒個人意識和感受,但行為上跟人類沒分別,大雄仍然會繼續視它為摰友。」司徒偉文反問,如果一個有家室的人,跟一個似足人類,但沒自我意識的AI機械人發生性行為,「這是否出軌?所以,就算AI沒意識,一樣可以帶來道德爭議。」

延伸閱讀:

學者:AI擅效法人類 難言有意識 谷歌LaMDA未足以模擬人腦

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們