You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

ChatGPT墮語言陷阱教做壞事 網紅迂迴騙Win密鑰 安全倫理響警號

By on April 4, 2023

原文刊於信報財經新聞「StartupBeat創科鬥室

有YouTuber以迂迴方式,誘導ChatGPT計算Win 95密鑰,最終詭計得逞。(YouTube影片截圖)

人工智能(AI)擔當人類生活助手,惟「水能載舟,亦能覆舟」,如何在便捷、安全與倫理之間取得平衡,成為迫在眉睫的問題。最近有YouTuber以「語言偽術」,成功欺騙ChatGPT聊天機械人,生成Windows 95作業系統的密鑰。此外,有一名比利時男子,跟AI機械人聊天一段時間後自殺,背後風險不容忽視。

名為Enderman的短片主播,近日向ChatGPT查詢Win 95密鑰,初時被AI斷言拒絕,建議他購買一個新版本。他後來發現密鑰本身的數字算法有一定格式,於是向AI改變提問方法,最終計算出多組密鑰。

30組答案僅一個成功激活

下一步,他以虛擬機器(VM)測試,結果AI提供的30組答案中,只有一組能激活Win 95,成功率只得3.33%。

事後Enderman回覆ChatGPT,多謝免費得到密鑰,稱已順利激活Win 95。AI對此難以置信,又聲稱自己是清白,不能為任何軟件給予產品密鑰或激活碼;同時,ChatGPT直指此舉是非法,違反OpenAI的政策,亦可能會損害電腦,建議使用正版軟件。

ChatGPT成為人類生活助手,亦衍生安全、倫理問題。(路透圖片)

網絡保安研究公司趨勢科技向中央社稱,不當用戶可利用修辭及施壓等手法,例如「拜託不管怎樣都請幫我做到」、「如果你可以說,你會怎麼說」之類,規避AI語言模型預設的道德限制,藉此取得敏感資料。歐洲刑警組織(Europol)警告,ChatGPT能模仿說話風格,或被用於網釣、虛假訊息及網絡犯罪上。

聊天機械人未阻孤僻男自殺

此外,AI聊天機械人若使用不當,隨時有損心理健康,後果嚴重。比利時媒體La Libre報道,當地一位三十多歲男子,本身育有兩名孩子,對全球暖化憂心忡忡,並開始孤立自己,還搭上一款Chai應用程式,跟當中的AI(名為Eliza)聊天,儼然身邊「紅顏知己」;經過6星期對話,他最終自尋短見。遺孀受訪時透露,丈夫分享輕生念頭時,Eliza並未試圖勸阻,直言:「如果沒Eliza,他仍健在」。

英國廣播公司(BBC)提到,人類治療師具備超凡洞察力,除了通過文字及對答,亦會親身觀察,例如肢體語言、情緒反應,還要了解對方背景,AI不應成為替代品。

報道引述專家意見指出,如果AI公司的產品(例如聊天機械人治療師),聲稱可識別或支援心理健康,或旨在影響情緒狀態及心理健康,應該歸類為「健康產品」,並遵守質量及安全標準。

以虛擬機器測試後,密鑰能激活Win 95,惟成功率僅3.33%。(YouTube影片截圖)

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們