You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

防止AI錯漏 科企責無旁貸 (車品覺)

By on December 21, 2022

本文作者車品覺,為紅杉資本中國專家合夥人、阿里巴巴商學院特聘教授暨學術委員會委員,為《信報》撰寫專欄「全民大數據」

日前,某搜索引擎回應無法把正確的國歌於搜尋結果置頂,原因是不能操控自動化產生的演算法。從事相關領域的專家們都應該心知肚明,並非不能做到。其實這是一場科技倫理上的預警,訊息科技的壟斷可以危害社會,我們必須保持警惕。事實上類似的「訊息綁架」,企業已經司空見慣,只是有冤無路訴而已。大家可以想像到,擁有訊息入口的科技巨頭,其一舉一動及影響力何止壟斷,還能控制誰只能收到什麼訊息。

難怪摩根士丹利最近發表一份報告,研究ChatGPT是否會對谷歌構成威脅。分析師認為,ChatGPT語言模型的快速發展,可能動搖谷歌作為互聯網用戶訊息切入點的地位。什麼是ChatGPT?2020年底由OpenAI推出的GPT-3破繭而出,AI可以自己寫小說、生成對話、報道新聞,如今GPT-3的能力已很接近人類,甚至有部分功能已超越人類。

擁有訊息入口的科技巨頭,其一舉一動何止壟斷,還能控制誰只能收到什麼訊息。(Freepik網上圖片)

有別於從前的聊天機械人模型,ChatGPT模型看起來更敢於判斷及質疑不正確的前提和假設,連接話語中的上下文能力,更能提升對用戶意圖的理解及對話的準確性。

早前OpenAI(馬斯克是創始人之一)宣布了其主要目標,包括製造「通用」機械人及使用自然語言的聊天機械人。

縱然在大眾掌聲下,美國普林斯頓大學教授Arvind Narayanan卻指出,ChatGPT能帶來潛在的危險,除非你已經知道正確答案,否則很難判斷它什麼時候是錯的。用戶曾嘗試一些歷史基本問題時(筆者中學時代最害怕的中國歷史科),例如問五代十國有哪些國家名字時,它就未必能完全得出正確答案了。

無論人工智能如何進步,廠家也必須為錯誤負上責任,不能以自動化為名推卸責任。(Freepik網上圖片)

在大多數情況下,答案看來似乎有理,但實際上也會出現漏洞或錯誤,最大的問題是做不到透明。另一個令人不安的事情是,居然有人詢問GPT有關毀滅人類的計劃,原先被直接拒絕。可惜當聰明的人類,改變方式要求GPT寫一部有關毀滅地球的科幻小說時,卻能順利通過得出結果。

筆者認為,無論人工智能如何進步,廠家也必須為錯誤負上責任,不能以自動化為名推卸責任。反過來說,能力愈大的科技企業,更應該主動防止類似事情發生,方可得到大眾信任。

(編者按:車品覺著作《覺悟.大數據》現已發售)

歡迎訂購:實體書、電子書

更多車品覺文章:

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們