聯(lián)合國安理會最近的一份報告指出,2020年3月,一架土耳其STM公司生產(chǎn)的“卡古-2”軍用無人機,在被編程為不依靠操作員的情況下,在利比亞戰(zhàn)場上跟蹤并攻擊了正在撤退的“利比亞國民軍”,導致一人死亡。有報道稱,這可能創(chuàng)下了致命性自主武器在自主模式下攻擊人類的首個案例。
在沒有接收到任何指令的情況下自主對人類發(fā)起襲擊,必將帶來戰(zhàn)爭倫理和作戰(zhàn)方式的雙重挑戰(zhàn)。事件曝光后,各國有識之士紛紛呼吁應(yīng)對致命性自主武器的發(fā)展和使用進行限制。
一個明顯的趨勢
致命性自主武器擴散到越來越多的國家,自主攻擊能力也在迅速提升
具備自主攻擊能力的軍用無人機同無人戰(zhàn)車、哨兵機器人、無人艦艇一樣,都屬于致命性自主武器系統(tǒng),俗稱“殺人機器人”。這些武器具有敵我識別、數(shù)據(jù)交換、指令交互、行動協(xié)調(diào)等功能和全天候作戰(zhàn)能力,能根據(jù)實際戰(zhàn)場環(huán)境和態(tài)勢變化,實施自主化、無人化作戰(zhàn)行動。
作為新型作戰(zhàn)力量的代表,致命性自主武器受到越來越多國家的重視。
近年來,俄羅斯相繼成立了國防部機器人技術(shù)裝備科學研究與試驗總中心、無人機國家中心和陸軍機器人研發(fā)中心等機構(gòu),大力發(fā)展致命性自主武器。“奧蘭-10”無人機、“波塞冬”核動力洲際無人潛航器、“平臺-M”履帶式機器人等裝備陸續(xù)亮相。預計到2025年,無人武器在俄裝備體系結(jié)構(gòu)中的比例將達到30%。
美國也發(fā)布了數(shù)份《無人系統(tǒng)綜合路線圖》,對未來無人武器發(fā)展作出長遠規(guī)劃。美軍計劃到2030年,將其60%的地面作戰(zhàn)平臺實現(xiàn)智能化。
此外,法國、日本、英國、土耳其、伊朗、韓國等國也加大了對致命性自主武器的研發(fā)和采購力度。
與此同時,得益于人工智能、態(tài)勢感知、人機交互等技術(shù)的不斷進步,近年來致命性自主武器的智能化水平也得到飛速發(fā)展。
早在2000年,美空軍研究實驗室就提出了無人機自主能力的等級劃分標準,用來衡量無人機自主水平。“卡古-2”無人機屬于微型戰(zhàn)術(shù)多旋翼攻擊無人機,能按照預設(shè)航跡飛行,還能以20架組成一個機群壓制敵防空系統(tǒng),搭載的自主目標識別系統(tǒng)可以自主定位、跟蹤和識別人員、車輛等地面移動目標,進行持續(xù)監(jiān)視或發(fā)動攻擊。按照該標準,“卡古-2”無人機自主能力等級達到5級以上。
美軍正在實施“空戰(zhàn)進化”“空天博格人”等一系列提升無人機自主作戰(zhàn)能力的研發(fā)項目。美國防部高級研究計劃局主導的“拒止環(huán)境下的協(xié)同作戰(zhàn)”項目,2018年至今利用“復仇者”“幽靈”“虎鯊”等不同無人機開展了多次試飛演示,探索和深化分布式空戰(zhàn)無人機的自主和協(xié)同技術(shù),驗證的無人機自主能力等級已達到8級以上。
一組對立的矛盾
自主作戰(zhàn)能力的提升能減少己方傷亡和附帶損傷,也帶來相應(yīng)風險
通過人工智能等技術(shù)的應(yīng)用提高智能化水平和自主能力,一直是致命性自主武器的發(fā)展方向。
一是可以提高目標判斷的準確性和打擊精度,減少平民傷亡和其他附帶損傷;
二是隨著自主能力的提升,其可以更多地替代人類執(zhí)行高難度和高風險任務(wù),最大限度地避免己方人員傷亡;
三是采用自主識別和智能分析等技術(shù),可以避免由于控制者精神不集中、目標誤判等人為失誤引起的誤傷。
然而,硬幣都有兩面,致命性自主武器智能化水平的提升也帶來了相應(yīng)的風險。
其一,隨著人工智能技術(shù)的發(fā)展和擴散,致命性自主武器得以廉價批量生產(chǎn),極易被恐怖武裝或極端分子獲得,或被相關(guān)國家大規(guī)模裝備使用,從而引發(fā)新的沖突和軍備競爭。目前,無人機已經(jīng)擴散至包括極端組織“伊斯蘭國”在內(nèi)的多個武裝組織。敘利亞恐怖分子也曾多次使用無人機襲擊敘利亞政府軍和俄羅斯駐敘軍事設(shè)施。
其二,由于控制者遠離戰(zhàn)場,其對軍事打擊的后果變得更為“麻木”。隨著越來越多的致命性自主武器出現(xiàn)在武裝沖突一線,人類或?qū)⒈纫酝菀走~過戰(zhàn)爭的門檻。
其三,由于戰(zhàn)場態(tài)勢復雜或程序紕漏,致命性自主武器脫離人類控制后,很難完全避免誤傷已經(jīng)喪失戰(zhàn)斗力的傷員和準備投降的士兵,遵守相關(guān)國際法變得越發(fā)困難。
這些問題的出現(xiàn),以及由之引發(fā)的道德和倫理問題,使得越來越多的人開始探討如何從道德、條約、法律等不同層面規(guī)制致命性自主武器的發(fā)展和使用。
一種理性的聲音
人類必須保留“喊停”的權(quán)力,必須通過國際法防止“潘多拉魔盒”打開
此次“卡古-2”無人機自主攻擊事件,折射出國際社會采取行動有效控制致命性自主武器的緊迫性,必須對具有自主決策能力的無人武器發(fā)展和使用進行約束。
在相關(guān)領(lǐng)域?qū)<铱磥?,致命性自主武器在沒有人的干預下自動選擇和攻擊目標,意味著將剝奪鮮活的自然人生命的權(quán)利交給了冷酷無情的機器人。這既是“道義責任的缺失”,也對國際人道法和國際和平與安全提出了嚴峻的挑戰(zhàn),是人類“無法承受之重”,必須通過國際法的規(guī)制捂緊這個“潘多拉魔盒”。
中國在安理會常任理事國中首倡在聯(lián)合國《特定常規(guī)武器公約》框架下締結(jié)具有法律拘束力的國際協(xié)議來規(guī)制致命性自主武器。歐盟擬通過制定文件來避免自主武器對人類的傷害,其發(fā)布的《可信任人工智能道德準則》是首個否定致命性自主武器合理性和合法性的區(qū)域性國際法文書,提出人工智能不能侵犯人類的自主性。2014年起,聯(lián)合國《特定常規(guī)武器公約》締約國根據(jù)會談機制,專門以致命性自主武器系統(tǒng)的軍備控制為議題,召開多次非正式專家會議和正式政府專家組會議。聯(lián)合國人權(quán)理事會也成立專門委員會討論是否應(yīng)凍結(jié)“殺人機器人”研發(fā)。2018年在瑞典斯德哥爾摩舉行的國際人工智能聯(lián)合會議上,2400多名人工智能領(lǐng)域?qū)W者共同簽署《禁止致命性自主武器宣言》。
受戰(zhàn)爭倫理制約,開火權(quán)不可能完全交由致命性自主武器,最多只是在特殊情況下部分地、有條件地放權(quán)。這種放權(quán)改變的只是人類參與戰(zhàn)爭的方式,只是將傳統(tǒng)由有人武器完成的作戰(zhàn)任務(wù)交由無人武器執(zhí)行,人由前臺退居幕后,在后方起著控制或監(jiān)控作用。因此,即使未來致命性自主武器具備了完全自主決策、完全自主行動的能力,人仍然需要對其遂行任務(wù)情況實時進行監(jiān)督,并在必要的情況下隨時進行干預。不管是為了戰(zhàn)局還是為了人類自身,人類都必須保留在關(guān)鍵時刻對致命性自主武器“喊?!钡臋?quán)力。
圖①:土耳其“卡古-2”軍用無人機。 資料圖片