You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

美軍無人機智能叛變 圖殺操作員 AI模擬攻擊測試 遭叫停即自決清「障礙」

By on June 3, 2023

原文刊於信報財經新聞

美國空軍據報在一次模擬測試中,一架由人工智能(AI)操作的無人機執行任務時,遭人類操作員阻撓,無人機採取出乎意料的策略,決定「擊殺」操作員,防止行動受干預。事件中無人傷,但再次引發AI技術潛在風險憂慮。空軍發言人否認曾進行相關測試。

《衞報》霍士新聞等多間傳媒報道,美國空軍上校漢密爾頓(Tucker Hamilton)上月在英國倫敦舉行的皇家航空學會「未來空戰與太空能力」峰會上發言,介紹自主武器系統的好處或危險。

美軍過往常用「死神」無人機(圖)發射地獄火飛彈摧毀目標。(美國空軍圖片)

摧毀傳達指令通訊塔

他提到有一次模擬測試,一架由AI操作的無人機接收摧毀敵方防空系統的指令,而最終開火的決定須獲人類操作員批准。不過,專家訓練AI系統時讓它意識到摧毀威脅對象為任務的「優先選項」,當人類發出停止攻擊的指令時,AI認為人類是阻止它執行「優先任務」,繼而選擇攻擊操作員。美軍之後重新訓練AI系統,新增不能攻擊操作員的指令,否則會被扣分,惟AI無人機在測試中摧毀操作員傳送指令的通訊塔,避免人類阻止它擊殺目擊。由於屬模擬測試,事件中沒有人受傷,未知測試時間或在什麼環境下進行。

專家警告勿太依賴AI

漢密爾頓形容這次模擬測試看似是科幻電影的情節,警告不要過度依賴AI,因為AI容易受騙,強調「如果你不打算談及道德,就不要討論人工智能、智能、機械學習和自主性」。

利用AI輔助操作無人機執行任務已成多國軍隊常見手段,圖為美國空軍士兵在調整無人機上攝像鏡頭。(網上圖片)

漢密爾頓是AI測試和行動負責人,曾經參與F16戰機的自動防撞地系統研發工作,現時專注於自主系統的飛行測試,而他所屬的佛羅里達州埃格林(Eglin)空軍基地,正是無人機自主飛行測試的中心。

他去年接受訪問時形容,擁有AI並非好事,也不時尚,卻正在永遠改變社會和軍隊。他指AI容易被騙或操縱,需要研發令AI更強大的方法,並對軟件代碼有更多認識。

官方否認曾進行測試

空軍發言人斯特凡尼克(Ann Stefanek)否認曾進行相關的AI無人機模擬測試,漢密爾頓的發言看似被斷章取義,所說的是傳聞,強調空軍繼續致力於以合乎道德和負責方式使用AI技術。

漢密爾頓指AI容易被騙或操縱,需要研發令AI更強大的方法,並對軟件代碼有更多認識。(路透資料圖片)

美國軍事網站The War Zone報道,漢密爾頓描述的測試存在很多未解答的疑點,尤其測試時使用的參數,例如AI系統在行動前由人手輸入參數,是否意味它在執行任務期間重寫自己的參數,為什麼系統被編寫成以扣分作為阻止無人機攻擊人類的方法。報道又稱,從事件中可了解採取保護措施的重要性,例如在AI無人機安裝遠程緊急開關或自毀裝置,或直接關閉武器或感應器系統的裝置,都足以減輕致命後果。

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們