新技術(shù)發(fā)展與應(yīng)用正在改變未來戰(zhàn)爭的面貌,而很少有技術(shù)能像人工智能向武器系統(tǒng)的融合那樣產(chǎn)生重大的影響。2016年11月20日,美國加密簡訊網(wǎng)站刊發(fā)了一篇采訪評論性文章《A Revolution in Artificial Intelligence》,其主要內(nèi)容是美國新安全中心(CNAS)高級研究員兼未來戰(zhàn)爭計劃部主任Paul Scharre對人工智能技術(shù)的變革及其在未來軍事方面應(yīng)用的認識和評論。文章中Paul Scharre的主要觀點如下:
(1)人工智能革命正在開始,但是未來自主武器系統(tǒng)的應(yīng)用尚存在不確定性。人工智能在各行各業(yè)都有很多應(yīng)用,其在軍事領(lǐng)域的應(yīng)用似乎也是不可避免的。其中很多應(yīng)用諸如物流及數(shù)據(jù)處理改進都是毫無爭議的,但是當涉及到機器人的應(yīng)用到底能有多自由或多自主時,尤其是自主武器和致命武力的應(yīng)用,這就會變成一個有爭議的問題。當今的自動化武器尤其是防御系統(tǒng)已經(jīng)很多,目前至少已有30個國家擁有擊落入侵火箭和導彈的自動防御系統(tǒng)。但是這種武器的自主性到什么程度才算適當還存在著重大的不確定性。2015年,曾經(jīng)有3000多名機器人和人工智能(AI)專家共同簽發(fā)了一封信,呼吁禁止自主武器,很多非政府組織(NGO)也已經(jīng)呼吁應(yīng)禁止自主武器。但非常明顯的是,人工智能在未來戰(zhàn)爭中將是非常重要的。只不過未來戰(zhàn)爭是否必須要邁出應(yīng)用自主武器的最后一步還是個未知數(shù),至少當前還沒有一個國家明確表態(tài)說他計劃研制自主武器,當然也沒有一個國家表示他不將研制這種武器。
(2)自主武器應(yīng)用所提出的法律和道德問題。自主武器應(yīng)用面臨著很多法律問題。當前的戰(zhàn)爭法并沒有規(guī)定不能利用機器人自主決定目標擊殺對象。戰(zhàn)爭法管控的是戰(zhàn)爭影響,也就是對實際發(fā)生的戰(zhàn)爭進行管控,而并非管控戰(zhàn)爭決策的過程。當然也有人認為,戰(zhàn)爭的決策者必須是人,這是當前的戰(zhàn)爭法所一直隱含的一種認識。鑒于當今的技術(shù)現(xiàn)狀,自主武器很難再某些環(huán)境中合法使用,例如平民居住的城市環(huán)境。當前它們可以在無平民的軍事艦船或潛艇環(huán)境下合法使用,而隨著技術(shù)的進步,自主技術(shù)通過正確的使用方式可以使得武器系統(tǒng)更人性化和更精準,從而可以避免平民傷亡。在道德倫理方面,人類在戰(zhàn)爭中可以表現(xiàn)出同情心,并保持克制,有時甚至會避免殺戮。而對于自主武器,有人認為它會奪走那種同理心,有些人則認為被自主武器殺死可能會侵犯認得尊嚴。但戰(zhàn)爭本身就是殘酷的,實際上被機槍打死或被炸彈炸毀也不是很榮耀的事,我們不能用今天的戰(zhàn)爭心理去蒙蔽未來的戰(zhàn)爭。
(3)武器系統(tǒng)向全自主性發(fā)展的原因。人工智能可以使得武器系統(tǒng)更加精確,數(shù)據(jù)處理也更快,而武器系統(tǒng)向全自主性發(fā)展也正是基于這樣的原因,一般有二:第一,即便機器人不一定做出比人類更好的決定,但它們確可以更快的進行決策。以決策速度驅(qū)動軍隊實現(xiàn)自動化的例子是某些防御系統(tǒng)。這些系統(tǒng)符合自主武器的基本標準,即一旦開啟,它們會自動搜索它們的目標空間,它們可以安裝于防御車輛、艦船或其他軍事設(shè)施,用于攔截火箭、炮彈等共計目標,而這些目標的攻擊速度往往是人類無法及時響應(yīng)的。第二,無法進行通信的無人機或無人系統(tǒng)應(yīng)用。一些軍事強國正在開發(fā)先進無人作戰(zhàn)飛機,目的是在敵方可能會進行通信干擾的競爭空域進行作戰(zhàn)使用。如果無人機的通信被切斷該怎么辦?它是返回還是僅拍照或進行監(jiān)視?它能撞擊預定的目標如戰(zhàn)斧巡航導彈嗎?如果遇到未授權(quán)的新威脅目標怎么辦?如果有人對其開火,它是避讓還是回擊?這些都是軍事應(yīng)用在未來10-15年內(nèi)必須解決的實際問題。此外,對對手發(fā)展自主武器的擔心也是促使各國發(fā)展全自主武器的一種因素。避免軍備競賽說說容易,做起來卻很難。
(4)對自主系統(tǒng)的錯誤決策判定非常困難。復雜系統(tǒng)可能會出現(xiàn)不可預測的問題,但是對這種問題的判定非常困難,尤其是對于可能會隨時進行數(shù)據(jù)采集的學習系統(tǒng),錯誤判定會更加困難。在學習系統(tǒng)反饋數(shù)據(jù)的“黑盒子”里發(fā)生的事情是人類無法用逆向工程弄清楚的,隨著系統(tǒng)變得越來越復雜,人類可能不會真正理解它是如何工作或它的邊界在哪里。
作者相關(guān)信息:
Paul Scharre于2008-2013年就職于美國國防部辦公室(OSD),在無人及自主系統(tǒng)和新興武器技術(shù)政策制定方面起著主導作用。他領(lǐng)導美國國防部(DoD)工作組起草了第3000.09號指令,確立了DoD關(guān)于武器系統(tǒng)自主性的政策。他也主導了DoD在情報、監(jiān)視與偵察(ISR)計劃和定向能技術(shù)方面的政策制定工作。Scharre也參與了《2012年國防戰(zhàn)略指南》的政策指南草案、《2010四年防務(wù)評估》以及部級計劃指南的編制工作。他現(xiàn)任國防部政策特別助理。