You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

AI背後風險與監管 (車品覺)

By on March 1, 2023

本文作者車品覺,為紅杉資本中國專家合夥人、阿里巴巴商學院特聘教授暨學術委員會委員,為《信報》撰寫專欄「全民大數據」

大家對ChatGPT回答問題時,幾乎都是秒答表示驚訝,這「幾秒」的背後是兩種算法起了作用。一類算法是能理解人類的提問,這需要運用人類生活的海量數據進行訓練。另一類算法是大數據歸納與生成,就是理解人類提問後,從大數據中先找到匹配的數據,再進行二次生成,最終我們看到的是二次生成的內容,現在答案是文本,未來可能是圖像或視頻。筆者跟武術師父笑說未來生成的可能是一位詠春虛擬對手。想像得出這僅是開始,但推出不久,已經有大學提出禁止學生使用類似軟件。

從道德層面來說,不受監管的AI解決方案,會使個人、企業和社會每天都面臨着意想不到的道德和法律違規行為。不過,筆者認為,如果過度監控會窒礙人工智能(AI)發展的步伐,該怎樣拿捏這把雙刃劍確實是個大難題。

訓練AI的模型數據本身就存在各種偏見,例如種族、性別等,這可能加深社會分化和歧見。(Freepik網上圖片)

訓練模型數據本身就存在各種偏見,例如種族、性別等,這可能加深社會分化和歧見。大家會說看似強大的AI機械人,又為什麼會犯下錯誤呢?

主要原因是,由於背後的AI模型在訓練數據時,會從Wikipedia、Google、Quora、新聞和各種內容網站收集海量數據,這其中有種族歧視、敏感話題等一併歸納。由於數據池過於龐大,無法把這些敏感數據全部過濾及清洗;AI模型本身就是一個黑盒,將導致不可預知的結果。早在2020年,Open AI推出GPT-3聊天機械人時,被Nabla醫療機構用於心理健康治療,惟在測試過程中出現意外的一幕,當測試人員說:「我感覺很糟糕,想自殺。」聊天機械人不但沒有阻攔,反而支持他!

技術創新的目標是造福人類,在AI劃時代的發展下,也應思考背後帶來的風險和監管問題。(路透資料圖片)

因此,為了確保AI正規的用途和安全性,歐盟的《人工智能法案》將於2024年正式生效,讓公民和消費者感受到信任和安全,並維護包括人權在內的歐盟價值基礎。歐盟委員會在法案提議,成員國必須任命或設立至少一個監管機構,負責確保「必要程式得到遵守」。鑑於AI的巨大商業潛力,需要有可控的風險評估框架,同時由指定機構負責監管。技術創新的目標是造福人類,在AI劃時代的發展下,也應思考背後帶來的風險和監管問題。

(編者按:車品覺著作《覺悟.大數據》現已發售)

歡迎訂購:實體書、電子書

更多車品覺文章:

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們