霍金警告AI威脅 人類隨時被毀滅

By on November 8, 2017

原文刊於信報財經新聞專欄「StartupBeat創科鬥室

霍金警告,如不控制人工智能發展,後果或變糟糕。(法新社圖片)

霍金警告,如不控制人工智能發展,後果或變糟糕。(法新社圖片)

殿堂級物理學家霍金(Stephen Hawking)表示,理論上電腦比人類聰明,甚至可以超越人腦。他認為,除非找到控制人工智能(AI)發展的方法,否則AI的出現或是「人類文明史上最糟糕的事件」。

本周初在葡萄牙里斯本的一場科技大會上,霍金發表對AI潛力的看法,指AI有助消除人類對自然的損害、消除貧窮和疾病,社會每方面都會被「改造」,但承認未來存在不少變數。

文明史上最糟糕

霍金強調,成功創造有效的AI將是人類文明史上最重大的事件,但亦可能是最糟糕的事情。始終我們無法得知,AI是否能提供無限幫助,人類會否被藐視、被邊緣化,甚至最終被毀滅,這全是問號。

他警告除非人類學懂如何準備並避免潛在風險,否則AI會帶來危險,例如AI自行擁有強大的武器,淪為少數人壓迫多數人的工具,對經濟造成巨大破壞。

霍金補充說,作為一個樂觀主義者,他相信人類能創造對世界有益的AI,可以跟人類和諧地工作。最重要的是,人類要有危機意識,盡早作好準備,採取最佳防範方案。

究竟AI是敵是友,多位科技巨擘各持己見。百度創辦人李彥宏稱,AI可以使世界變得更簡單; 微軟創辦人蓋茨(Bill Gates)表示,AI的出現有好處,但長遠惹人憂慮。至於Facebook教主朱克伯格(Mark Zuckerberg)跟Tesla老闆馬斯克(Elon Musk)的意見則各走極端,雙方更曾隔空交鋒。

科企巨擘分歧大

馬斯克於2014年發出提醒,指AI將支配地球,造成嚴重失業,令人類淪為二等公民;AI更有機會當街殺人,觸發世界大戰。屆時人類要與機器結合,進化成半機械人,才能與AI匹敵。他又嘲笑朱克伯格「對AI的了解有限」。

相反,朱克伯格卻大讚AI,可用來診治疾病、 減少車禍,有潛力改善人類生活。對於馬斯克的世界末日論,他暗批對方想法消極,甚至不負責任。

支持 StartupBeat

如欲投稿、報料,發佈新聞稿或採訪通知,按這裡聯絡我們