可靠性受質疑 學者:AI不應用於作戰

圖爲伊朗首都德黑蘭遭空襲後冒出的濃煙。法新社

美聯社報導,在與美國政府的合約爭議中,人工智慧(AI)新創公司Anthropic對AI軍事應用所展現的道德立場,正重塑AI巨頭間的競爭,同時凸顯人們一種日益增長的認知,即AI聊天機器人的能力可能不足以用於戰爭。

美國市場研究公司Sensor Tower三月初指出,Anthropic旗下聊天機器人Claude手機應用程式(App)在美國的周下載量,首次超過競爭對手ChatGPT,顯示在上述爭端中支持Anthropic的消費者,對該公司產品日益感興趣。

雖然許多軍事和人權專家稱讚Anthropic執行長阿莫戴與五角大廈談判時,堅守倫理原則,卻也有人不滿的指出,美國政府會將AI技術應用於高風險任務,就是被AI產業多年來的行銷打動。

美國海軍前戰機飛官、現任美國喬治梅森大學機器人與自動化中心主管康明茲說,阿莫戴是自作自受,Anthropic曾是吹噓AI能力最誇張的公司,現在才突然迴歸現實,告訴世人真的不應將這些技術用於武器。

康明茲在去年十二月曾發表論文,認爲政府機構應禁止使用生成式AI來「控制、指揮、引導或管理任何武器」,這不是因爲AI可能太聰明而脫離人類控制,而是Claude這類聊天機器人背後的大型語言模型容易出錯,本質上並不可靠,不適合用在可能導致生命損失的環境。

直到最近,Anthropic還是同業中唯一獲准用於美國機密軍事系統的公司,與數據分析公司「帕蘭泰爾」等其他國防承包商建立合作關係。

美國總統川普二月廿七日說,五角大廈將有六個月的時間逐步淘汰Anthropic的軍事應用;約在同一時間,川普正批准二月廿八日對伊朗的軍事打擊。曾任「帕蘭泰爾」公司顧問的康明茲說,Claude可能已被用於策畫軍事打擊。

消費者則已用行動表態,Claude的下載量激增。Sensor Tower的數據顯示,Claude二月廿八日開始成爲iPhone最受歡迎App,三月二日成爲美國所有手機系統最受歡迎App。

在蘋果的App商店,ChatGPT的一星評價數量在二月廿八日暴增至七點七五倍且持續增長,反映OpenAI遭受強烈反彈。