自主武器系統(tǒng)雖然在國際上沒有一個(gè)公認(rèn)的定義,只有一些紅十字國際委員會(huì)和一些國際人道組織的相關(guān)解釋。但顧名思義,自主武器系統(tǒng)就是將武器與人工智能自主系統(tǒng)相結(jié)合而制造出的一類兼具殺傷性與智能自主性的武器。縱觀人類的武器發(fā)展史,其實(shí)就是利用科技的進(jìn)步不斷提升武器智能的過程。在許多軍事題材游戲中,玩家可以架設(shè)自動(dòng)的機(jī)槍、榴彈發(fā)射器攻擊敵人,這些武器一旦架設(shè)就會(huì)自主攻擊不需要操作,而且一次攻擊就能造成大規(guī)模的殺傷。
虛擬游戲中玩家對這類武器的熱衷也從側(cè)面反映了自主武器系統(tǒng)為何在現(xiàn)代戰(zhàn)爭中受到青睞。美國于2001年的阿富汗戰(zhàn)爭中就已經(jīng)開始釆用自主武器系統(tǒng)進(jìn)行攻擊、防御、警戒以及偵察。其后在長達(dá)十?dāng)?shù)年的戰(zhàn)爭中,美國以及以色列在巴勒斯坦、阿富汗、伊拉克等地區(qū)設(shè)置了大量自主武器系統(tǒng)。
為了避免士兵的傷亡以及追求自動(dòng)的打擊,自主武器系統(tǒng)慢慢成為了戰(zhàn)場上常見的武器。美國如今很少使用大量的地面部隊(duì)進(jìn)行部署,而是利用大量的自主武器系統(tǒng)取代戰(zhàn)斗人員。自主武器系統(tǒng)逐漸成為了現(xiàn)代戰(zhàn)場的主要武器并取得了巨大戰(zhàn)果,但是對自主武器系統(tǒng)廣泛和隨意地使用也帶來嚴(yán)重的國際人道法問題。許多國際組織對于自主武器系統(tǒng)的問題進(jìn)行調(diào)查并發(fā)表報(bào)告。本文將具體探究自主武器系統(tǒng)引發(fā)的國際人道法問題及其對策。
什么是自主武器系統(tǒng)
自主武器系統(tǒng)通指一類智能機(jī)器人武器系統(tǒng),一經(jīng)啟動(dòng),即可在無需人類操作員進(jìn)一步干預(yù)的情況下選擇和打擊目標(biāo),其核心因素在于機(jī)器人在挑選目標(biāo)和使用殺傷力時(shí)可以自主“選擇”。
自主武器系統(tǒng)的技術(shù)要求非常高。從開發(fā)到部署往往需要耗費(fèi)大量的科技力量與資金。自主武器系統(tǒng)主要基于高級的人工智能技術(shù),這也從根本上把自主武器系統(tǒng)和遙控武器區(qū)分開來。遙控武器,如武裝無人機(jī)以及一些安裝在裝甲車上的遙控武器站。雖然此類武器可以在千百千米之外的地區(qū)執(zhí)行偵查或攻擊任務(wù),但其行動(dòng)仍然處于人類操作員的控制之下,仍不具有自主選擇和行為的能力。
相比之下,自主武器系統(tǒng)集合了大量的人工智能技術(shù),其類似于一個(gè)高級智能的機(jī)器人,可以根據(jù)不同的時(shí)間、地點(diǎn)、天氣、戰(zhàn)場態(tài)勢等因素進(jìn)行動(dòng)態(tài)的自我判斷以作出應(yīng)對,從某種意義上已將人類的決策排除在外。但是自主武器系統(tǒng)和人類的不同之處在于,它們還不具有自覺遵守戰(zhàn)場法則的思維能力。雖然人類在這方面投入了相當(dāng)多的資金及努力,但這類系統(tǒng)尚未完全理想化,而若就此將其投入戰(zhàn)場,必然會(huì)導(dǎo)致與人類戰(zhàn)爭法則的沖突并引發(fā)爭議。
2010年,英國航空航天公司為他們新研發(fā)的無人機(jī)舉辦了一場盛大的發(fā)布會(huì)。這次的無人機(jī)不再是“遙控武器”,而是名為“塔蘭尼斯”的完全自主無人機(jī),造價(jià)高達(dá)1.4億英鎊,它可以深入敵方腹地搜集情報(bào)、轟炸、抵御敵方戰(zhàn)機(jī)的攻擊。這架飛機(jī)只是武器自主化的其中一個(gè)例子,就像曾擔(dān)任英國國防部采購部長的德雷森爵士所說:“無需人類信息指令,能夠獨(dú)立做決定的機(jī)器將徹底改變現(xiàn)代戰(zhàn)爭。”
與傳統(tǒng)的有人操作的武器系統(tǒng)相比,自主武器系統(tǒng)有許多獨(dú)有特點(diǎn)。
與有人操作的武器系統(tǒng)相比,自主武器系統(tǒng)的一大特征就是能夠自主戰(zhàn)斗。自主武器系統(tǒng)雖然技術(shù)含量較高,但是一旦掌握技術(shù)即可量產(chǎn),體積大小也可以視需要而定;操作和維護(hù)相對簡單,襲擊準(zhǔn)確度高且自身目標(biāo)小,不易被發(fā)現(xiàn)。最重要的一點(diǎn)就是即使被擊毀也不會(huì)造成士兵的傷亡,沒有人員損失。整體來說,自主智能系統(tǒng)的發(fā)展經(jīng)歷著兩個(gè)顯著的變化趨勢:一是由偵察觀測型系統(tǒng)向攜帶機(jī)槍、火箭的武裝攻擊型武器系統(tǒng)的轉(zhuǎn)變;二是由后臺地面同步人工操控的半智能武器系統(tǒng)向完全自主化武器系統(tǒng)的轉(zhuǎn)變。
當(dāng)武器無需人類指令,將徹底改變未來戰(zhàn)爭
自主武器系統(tǒng)在戰(zhàn)場環(huán)境適應(yīng)方面具有更加優(yōu)秀的性能。自主武器系統(tǒng)可以投放到幾乎所有惡劣的環(huán)境之中執(zhí)行戰(zhàn)斗任務(wù),如有必要人們也可以通過攝像頭觀察其戰(zhàn)斗或偵察情況。并且自主武器系統(tǒng)能夠不用考慮人類身體機(jī)能而長時(shí)間地戰(zhàn)斗。英國研發(fā)的智能戰(zhàn)斗機(jī)器人可以無間斷工作3天,從中可以看出自主武器系統(tǒng)能夠不受人體極限的限制,也不用考慮惡劣天氣和極端環(huán)境對人產(chǎn)生的影響。
由此可見,自主武器系統(tǒng)在軍事上有著巨大的優(yōu)勢。
自主武器系統(tǒng)的國際人道法探究
自主武器系統(tǒng)提高了武力投射力(保存已方士兵的生命),并加倍放大武力(以更少的人做更多的事),既能節(jié)省人力和財(cái)政資源,又能提高駐防時(shí)間,并可承受高加速度等其他人類難以逾越的障礙。國際上早已存在相關(guān)人道主義條約來對戰(zhàn)爭中武器的使用進(jìn)行限制,然而隨著科技的發(fā)展,武器也飛速地升級,武器發(fā)展的速度已經(jīng)超越了條約制定的速度。
那么新武器自身的合法性該如何確定是一大問題。涉及武器限制與禁止的國際條約,主要有1868年的《圣彼得堡宣言》、1899年的《海牙諸宣言》、1907年的《海牙諸公約》。此外,類似的對特定武器作出了限制和禁止的國際文件還有:1925 年的《禁止在戰(zhàn)爭中使用窒息性、毒性及其他氣體的日內(nèi)瓦議定書》、1972 年的《生物武器公約》、1976 年的《禁止為軍事或任何其他敵對目的使用改變環(huán)境的技術(shù)的公約》、1980年的《常規(guī)武器公約》、五個(gè)議定書(《關(guān)于無法檢測碎片的議定書》《關(guān)于地雷、餌雷和其他裝置的議定書》《關(guān)于燃燒武器的議定書》《關(guān)于致盲的激光武器議定書》《戰(zhàn)爭遺留爆炸物議定書》)、1993年的《化學(xué)武器公約》、1997年的《禁止使用殺傷性地雷的公約》,以及《國際刑事法院羅馬公約》等。這些國際條約明確了需要被限制或禁止的特定武器的類型,是對新武器進(jìn)行審查時(shí)應(yīng)首先考慮的國際法規(guī)則。
《日內(nèi)瓦公約》等協(xié)定,都從國際人道主義出發(fā),對軍事攻擊加以限定
而這些條約所針對的一些武器,隨著時(shí)間推移,在現(xiàn)代人看來已經(jīng)十分老舊,無法稱之為“新武器”。惟一明確規(guī)定對新武器、新的作戰(zhàn)手段和方法進(jìn)行法律審查的國際法規(guī)則是1977年《日內(nèi)瓦公約第一附加議定書》第36條。該條規(guī)定的主要目的是在對新武器、新的作戰(zhàn)手段和方法的研究、發(fā)展、取得或者采用之前就審查他們的合法性。但時(shí)至今日,自主武器系統(tǒng)并未被徹底審查合法性,也未在國際公約中被禁止。
如果以國際人道法的原則為參照,國際人道法的四個(gè)基本原則是區(qū)分原則、軍事必要原則、不必要痛苦原則和比例原則。跟一項(xiàng)新武器相關(guān)的原則主要是區(qū)分原則和不必要痛苦原則。區(qū)分原則要求在戰(zhàn)爭和武裝沖突中始終對戰(zhàn)斗員與平民、軍事目標(biāo)與民用物體加以區(qū)別,是國際人道法的根本原則。所以相應(yīng)的,國際人道法禁止使用武器進(jìn)行不分青紅皂白的攻擊,這也是《日內(nèi)瓦公約第一附加議定書》中規(guī)定的;還有就是禁止使用會(huì)造成不必要痛苦的武器,如膨脹子彈、燃燒武器、激光致盲武器等。
從這兩條原則的字面來看,自主武器系統(tǒng)既不是不分青紅皂白的武器也不是導(dǎo)致不必要痛苦的武器,因?yàn)樽灾魑淦飨到y(tǒng)主要是作為一個(gè)平臺搭載機(jī)槍、榴彈發(fā)射器為武器,機(jī)槍榴彈都是合法武器,從某種意義上來說,自主武器系統(tǒng)只是把武器的載體由人換成了一個(gè)“人工智能體”。所以根據(jù)國際人道法的基本原則,自主武器系統(tǒng)與一般武器的區(qū)別是自主武器系統(tǒng)沒有操作人員而是依靠自身的“大腦”進(jìn)行判斷與戰(zhàn)斗。所以自主武器系統(tǒng)從國際人道法來看,應(yīng)當(dāng)歸類為合法武器,或者說是并沒有受到禁止的武器。當(dāng)然,這一切的前提是其在戰(zhàn)爭中能夠以遵守國際人道法原則的方式使用,因?yàn)樵趯?shí)際的戰(zhàn)場使用中,自主武器系統(tǒng)對國際人道法造成了許多挑戰(zhàn)也帶來了爭議。
致命決策去人類化的挑戰(zhàn) 自主武器系統(tǒng)帶來的“致命決策的去人類化”將對人道主義帶來根本性的挑戰(zhàn)。所謂人道,正是作為人所特有的一種最基本的天性,會(huì)同情,會(huì)憐憫,會(huì)判斷。而國際法,尤其是國際人道法,則為人類之間使用武力互相傷害保留了謹(jǐn)慎的缺口并提供了必要的規(guī)則。
而如果自主武器系統(tǒng)被大量引入戰(zhàn)場代替人類,人們只需要把它們部署到戰(zhàn)場,接著就可以在千里之外看著它們自動(dòng)地撕碎敵人,這么一來戰(zhàn)爭似乎就成為了與電子游戲一般,自主武器系統(tǒng)對待敵人就如同我們對待游戲中的敵人一般冷酷無情。自主武器系統(tǒng)的出現(xiàn)則將這種致命決策去人類化的弊端推到了極致,人們在心理上對武力的判斷以及實(shí)際中帶來的殺傷的距離將會(huì)進(jìn)一步擴(kuò)大,甚至磨滅人之所以為人所具有的基本的關(guān)切。因而,自主武器系統(tǒng)的致命決策去人類化對國際人道法造成了沖擊,其合法性問題不得不被認(rèn)真審視。
自主武器系統(tǒng)的法律地位模糊 關(guān)于自主武器系統(tǒng)的法律地位存在著爭議。自主武器系統(tǒng)和當(dāng)今造成巨大爭議的無人機(jī)不同,無人機(jī)并不是一個(gè)類似全智能機(jī)器人的、能擁有自己的意識判斷的機(jī)器,而是由大量的工作人員在后臺遙控操作。與之相比自主武器系統(tǒng)擁有自己的判斷力,不需要人在后臺操作即可自行戰(zhàn)斗。
這樣就引申出一個(gè)問題:自主武器系統(tǒng)究竟應(yīng)當(dāng)被視為武器,還是戰(zhàn)斗員呢?在詞典中,武器被認(rèn)為是“被設(shè)計(jì)或用于造成身體傷害或死亡的工具”,或是“在沖突或?qū)怪汹A得優(yōu)勢或者保衛(wèi)自身的一種手段”。無論是從詞義出發(fā)還是從一般的理解出發(fā),武器都首先被理解為使用武力的工具,其本質(zhì)就是工具,不具有自主意識,其使用的違法與否絕大多數(shù)情況下取決于使用者的意志。相對而言,戰(zhàn)斗員在《日內(nèi)瓦第一附加議定書》中第43條定義為“有權(quán)直接參加敵對行動(dòng)的沖突一方的武裝部隊(duì)成員(除第三公約第33條的規(guī)定所包括的醫(yī)務(wù)人員和隨軍牧師外)”。
按照上述理論來看,如果把自主武器系統(tǒng)當(dāng)作武器,那么就忽視了它們的自主性,因?yàn)樗麄儾恍枰耆凑帐褂谜叩囊庵緛磉\(yùn)行;可如果把它們定義為戰(zhàn)斗員,那么會(huì)引發(fā)一個(gè)矛盾,就是他們?nèi)绾蝸碜袷噩F(xiàn)今的國際人道法以及戰(zhàn)爭法則?畢竟它們不是人類,很多情勢的判斷真的難以用人工智能來取代。更重要的,如果將自主戰(zhàn)斗系統(tǒng)視為戰(zhàn)斗員,那么戰(zhàn)爭責(zé)任的追究也是難以進(jìn)行的。國際刑法的一個(gè)重要的特征就是追究個(gè)人刑事責(zé)任,由犯有國際刑事犯罪的自然人承擔(dān)相應(yīng)的國際法責(zé)任,而自主武器系統(tǒng)是一臺機(jī)器,要如何對它進(jìn)行追責(zé)?就算追責(zé),是部署它的士兵的責(zé)任還是設(shè)計(jì)編程者的責(zé)任呢?很顯然在如今的責(zé)任機(jī)制下自主武器系統(tǒng)的法律地位十分模糊。
論文指導(dǎo) >
SCI期刊推薦 >
論文常見問題 >
SCI常見問題 >