www.av视频在线观看,亚洲免费影院第一第二,一级毛片在现观看,久久精品片色免费看网站,日本大香伊蕉在人线国产,奇米精品一区二区三区在线观看,亚洲网站一区

網站首頁 | 網站地圖

大國新村
首頁 > 原創(chuàng)精品 > 成果首發(fā) > 正文

技術與正義:未來戰(zhàn)爭中的人工智能

【摘要】關于人工智能技術的軍事化運用所可能造成的倫理學后效,既有的批評意見有:此類運用會鉆現有國際軍備管控條約的空隙并促發(fā)此類武器的全球擴散;會降低殺戮門檻,并導致更多平民死亡,等等。然而,這些批評意見往往對傳統軍事戰(zhàn)術平臺與人工智能化的戰(zhàn)術平臺設置雙重了標準,并刻意夸大了后者對于改變全球安全局勢的全局性意義。而要真正使得軍用人工智能技術的倫理學后效能夠滿足人類現有的價值觀體系,其主要舉措并不在于去粗暴地禁止此類裝備的研發(fā),而恰恰在于如何使得此類設備具備人類意義上的“倫理推理能力”。而在該研發(fā)過程中,如何解決“各向同性問題”亦將成為研究重點。

【關鍵詞】 軍用機器人(技術)   人工智能  倫理學  各向同性  心靈狀態(tài)指派

【中圖分類號】TP18                   【文獻標識碼】 A

【DOI】10.16619/j.cnki.rmltxsqy.2016.07.004

導論:軍用人工智能系統提出的倫理學挑戰(zhàn)

眾所周知,人工智能技術的核心命意,乃是通過對于計算機的恰當編程,以使得相關設備能夠在行為層面上表現出與人類類似的“智能性”。盡管關于什么樣的行為可以被判為“智能的”,學界尚有不少的爭議,但是一般人都不會反對這么一條評判意見:理想中的人工智能產品,應當能夠在盡量減少人工干預的情況下,在相關工作環(huán)境中,按照用戶的要求自主地完成各種任務。很顯然,人工智能產品的這種特性,倘若真能實現,那么,其對于人力資源在各種生產活動中的地位,便會構成一種傳統機器所難以比擬的“威脅”,此即:該技術不僅威脅到了傳統體力勞動者的地位,而且也部分威脅到了作為新的有用信息產生者的腦力勞動者的地位。而這一點又使得人工智能技術自身與以通訊技術為代表的傳統信息技術有了區(qū)別:在通訊技術中,技術承載者本身并不提供新的信息,而只是在傳播信息方面提供便利;與之相比較,理想的人工智能技術平臺則成為新的有用信息的供應節(jié)點。

雖然目前的人工智能技術離全面取代各行各業(yè)的人力資源依然有頗長的一段路要走,但是在一些人力資源相對稀缺的領域,這方面的社會需求已經非常強勁,甚至相關的某些應用實踐也已經漸漸展開。在美國耶魯大學的生物倫理學跨學科研究中心的研究員瓦拉赫(Wendell Wallach)與美國印第安納大學的科學哲學與認知科學專家艾倫(Colin Allen)合寫的《道德機器:如何教會機器人辨明是非》①一書第三章中,他們提到了人工智能技術的三個最有前途的應用領域:軍用機器人(以便減少戰(zhàn)爭中的直接人力投入,以此避免己方軍隊傷亡);性愛機器人(以便以某種法律上許可的方式滿足單身人士的生理欲望,并以此降低全社會的性犯罪率),以及工業(yè)機器人(以便應對因為人口老齡化所造成的用工荒)。不難想見,雖然人工智能技術在這三個領域的運用都會導致相關的倫理問題,但是軍用人工智能系統所構成的倫理學問題是最為尖銳的,因為此類系統的任務就是直接殺戮生命,或為殺戮提供間接幫助。這自然也就牽涉到了特定軍事暴力行為自身的合法性問題。美國空軍退役上校,現于塔爾頓州立大學教授哲學與宗教的哈爾嘎斯(Matthew Hallgarth)就此寫道:

軍事沖突的語言即關于辯護(justification)的語言。軍事沖突導致人員的死亡以及財產的受損,并造成各種形式的可以想象的大量傷害。不給理由就去做這些事情乃是瘋狂的。不過,即使你有了理由去做了這些事情,如果同樣的目標可以通過更少的人員與財產損失來達到,那么,相關的軍事行動還是無法得到辯護。②

這段話的基本精神便是:(1)軍事行動分為“得到有效辯護”與“未得到有效辯護的”兩種;(2)軍事行動所導致的破壞,在戰(zhàn)爭行為得到辯護的前提下,在倫理上便是可以被允許的;(3)不過,對于某個特定的軍事行動的辯護本身的門檻很高,因為此類辯護需要比對戰(zhàn)爭行為與各種其他可能手段各自的損失/效益比,并證明相關軍事行動的損失/效益比最低(譬如,在2004年9月3日結束的導致333名無辜人質死亡的“別斯蘭人質事件”中,俄羅斯安全部隊所采用的通過釋放神經毒氣、麻痹匪徒的方式來解救人質的行為是否能夠得到合適的倫理學辯護,在相當程度上將取決于我們如何預估在不采用此類攻擊方法的前提下人質所可能遭到的損失)。

不過,此類關于軍事行動自身可辯護性的爭鳴可謂古已有之,而軍用人工智能系統的介入,又會在多大問題上會改變此類問題的性質呢?

這種改變主要體現在以下兩個方面:理論方面與實踐方面。

先來看實踐方面。試想:如果別斯蘭事件的處理者從人類士兵轉為人工智能系統的話,那么,對于特定軍事行動的決策將由機器自主完成。而在這樣的情況下,相關行動的倫理學責任的承載者也就會隨之成為一個問題——譬如:我們可以因為人類指揮官的錯誤軍事決策而將其告上軍事法庭,但是,我們又如何可能將犯下錯誤的機器人戰(zhàn)士告上軍事法庭呢?很顯然,我們目前的法律系統還沒有為處理此類問題做好準備。

再來看理論方面的問題。在人類指揮官發(fā)出命令或人類士兵執(zhí)行命令的情形下,不必預設我們已經具備了關于這些軍人的大腦運作的充分知識(因為即使在神經科學知識付諸闕如的古代,一個指揮官也應當知道他的士兵能夠聽懂并執(zhí)行其命令)。與之相對比,由于機器人士兵的每一個元件與每一步算法都是人類設計者的產物,故而,我們根本就不能設想這樣的機器人能夠在“其設計者不知其如何運作”的前提下還能夠按照設計者的要求去運作。這也就是說,恰恰是對于機器人戰(zhàn)士的設計本身,倒逼著設計者們先從理論層面上弄清人類戰(zhàn)士的倫理決策過程的各個細節(jié)——而不幸的是,無論是現有的倫理學的研究,還是現有的對于支持人類倫理決策過程的神經機制的研究,都還沒有成熟到能夠為“倫理決策的程序化編制”提供穩(wěn)固的學理依托的地步。

讀者或許會說,既然機器人戰(zhàn)士的設計在實踐上會造成麻煩,而在理論上又缺乏扎實的學術準備,我們又為何要費心發(fā)展此類技術呢?但這樣的反駁其實并不是很有說服力。假設我們“穿越”回了達·芬奇的時代,并由此目睹了這位藝術大師兼工程學大師正在設計飛行器。請問,文藝復興時代的歐洲法律體系,已經為飛行器的安全使用做好相關準備了嗎?而當時的物理學發(fā)展,是否也已經為飛行器的設計提供了扎實的學術基礎了呢?恐怕都沒有。但是,我們卻難以由此得出“達·芬奇在胡鬧”的結論,因為沒有他的這些勇敢的技術嘗試,歐洲的科學技術就難以在日后發(fā)展到足以使得對于飛行器的設計與建造成為現實的地步。此外,相關的飛行器交通法規(guī)的出現與完善,也只有在相關交通工具的確已經成熟的前提下才有可能。所以說,實踐與理論上的困難,并未構成阻礙我們制造軍用人工智能系統的充分理由,相反還會在一定程度上構成相關技術努力的“激發(fā)器”(不過,關于如何克服這些具體的困難,顯然還是有巨大的討論空間的。詳見后文)。

讀者或許還會說:飛行器與軍用機器人不同,前者可以用于戰(zhàn)爭目的,也可以用于和平目的,后者則只可以用于軍事目的。因此,建造軍用機器人從根本上就是反倫理的。不過,這依然是一個很薄弱的反駁意見。從手槍到核導彈,人類畢竟已經建造出了各種類型的武器彈藥。缺乏對于運用這些武器的歷史語境的考察,抽象地指責軍火工業(yè)是“反倫理的”還是“有利于促進人類道德水平的”,恐怕都是毫無意義。而這個一般性的結論,也應當能適用于對于智能化武器的討論中去。

而一些對智能武器特別抱有敵意的批評者或許會繼續(xù)反駁說:我們并不反對制造一般意義的有人操控的武器,但是我們反對制造并且使用具有高度自主性(特別是具有自主開火權)的軍用智能機器人,因為這類武器很特殊——而正是因為這種特殊性,才使得我們有理由禁止開發(fā)并且部署它們。

那么,究竟是軍用智能機器人的哪些“特殊性”才使得它成為被禁止的理由呢?而這些理由是否能夠站得住腳呢?

關于智能軍用系統之倫理危害性的五個論證及其薄弱處

前面我們已經提及,從倫理學角度看,軍事行動可分為“得到辯護的”與“未得到辯護”兩類。這也正是俗稱的“正義的”與“非正義的”軍事行動之間的分別。哈爾嘎斯則將“正義的”軍事行動所應當具備的規(guī)范性條件歸結為七條(見表1③)。很顯然,如果一個人試圖論證智能軍用系統的廣泛運用能夠使得對于這七條規(guī)范中的至少一部分更難被滿足的話,那么,這樣的論證結論就自然能夠幫助其導出對于人工智能的軍事運用的負面?zhèn)惱韺W評估。反過來說,如果人工智能的軍事運用的支持者能夠證明此類產品的出現不足以對上述規(guī)范的滿足構成明顯的障礙的話,那么,上述負面評估的可靠性也就會由此抵消。

就上述七條規(guī)范性原則與人工智能系統的軍事化運用之間的關系而言,筆者的大致意見是:這些規(guī)范主要關涉到了戰(zhàn)爭行為的宏觀決策行為,而與個別作戰(zhàn)人員的當下戰(zhàn)術決策關系不大(譬如,特定的武裝力量首腦以及其他政治支配力量對于戰(zhàn)爭理由的解釋是否恰當,實際上與基層指戰(zhàn)員的戰(zhàn)術決策方式并無直接因果關系)。而就通常人的理解而言,人工智能技術對于現有武器的改造往往是針對戰(zhàn)術兵器而言的,并以使之“無人化”為短期目標,而一般并不特別針對洲際導彈等戰(zhàn)略兵器的改造(因為后者本來就已是“無人化”了)。在這樣的情況下,人工智能技術的軍事化所導致的戰(zhàn)爭樣態(tài)的變化也只具有戰(zhàn)術層次上的意義,而不會在更宏觀的尺度上改變使得戰(zhàn)爭決策本身得以被給出的整個政治經濟環(huán)境。由是觀之,至少從原則上看,軍用機器人的出現似乎并不會使得本來非正義的戰(zhàn)爭變得正義,也不會使得本來正義的戰(zhàn)爭變得不正義。此外,由于智能武器的研發(fā)本身,本來就有“使得軍事打擊更為精準化”與“降低人類士兵生命風險”這兩大設計初衷,因此,它們的出現無疑還能夠降低戰(zhàn)爭的損失,而由此提高戰(zhàn)爭的“人道指數”。故而,似乎并不存在著一些特別強的理由去促使倫理學家們?yōu)橹悄芪淦鞯某霈F打上負面的印象分。

不過,這樣的粗略的回復顯然不能夠說服堅持為軍用人工智能系統的倫理學面相“打負分”的倫理學家們。且看他們在下面所提出的更為細致的反駁意見,以及筆者對于這些意見的再反駁。

反駁意見一:無人智能武器的出現會鉆現有的國際武器控制條約的空子,并由此使得世界和平更為脆弱。

此意見是德國的技術倫理學家阿爾特曼(Jürgen Altmann)提出的。④阿爾特曼提醒我們注意:戰(zhàn)術兵器(如主戰(zhàn)坦克)與戰(zhàn)略兵器之間的界限,會在前者的數量被大量增加的情況下而變得模糊(比如,十個裝甲師就可以被認為是一支戰(zhàn)略性力量了),因此,人工智能技術與既有作戰(zhàn)平臺的結合物,只要乘以巨大的數量,就會導致戰(zhàn)略能力的激增,對國與國之間的戰(zhàn)略平衡造成威脅,并進而危害世界和平。他同時提醒我們注意:目前世界上現有的武器控制條約都沒有對人工智能技術的廣泛使用作出明確限定,這就為在這方面掌握技術優(yōu)勢的國家“鉆條約的空子”大開了方便之門。以1990年通過的《常規(guī)武裝力量裁減條約》(The Treaty on Conventional Armed Forces)為例,此條約對北約與俄羅斯所各自能夠在歐洲部署的主戰(zhàn)坦克、自行火炮、武裝直升機等常規(guī)陸戰(zhàn)戰(zhàn)術平臺的數量上限作出了規(guī)定,并允許條約簽訂國對彼此的條約執(zhí)行情況進行互檢。需要注意的是,該條約在字面上并沒有談及上述戰(zhàn)術平臺應當是有人駕駛的還是無人駕駛的,而只對相關作戰(zhàn)平臺的物理特征做出了規(guī)定(如“坦克重量必須在16.5噸以上”,等等)。在這樣的情況下,無人駕駛的“類坦克兵器”或許就能通過“減重”而使得其擺脫“坦克”的名義標簽,并由此得到不受條約控制的發(fā)展(需要注意的是,在減去三名到四名人類成員的前提下,此類“減重”在技術上并不困難)。

筆者的再反駁意見:沒有任何一個軍備控制條約能夠覆蓋未來兵器的可能的發(fā)展方向,而這一點即使在無人智能武器出現之前也是成立的。以1922年通過的《美英法意日五國關于限制海軍軍備條約》(或簡稱《五國公約》)為例:該條約對簽約五列強的戰(zhàn)列艦、巡洋艦等主要艦種的噸位分配以及相關武備(特別是艦載火炮與魚雷武器)的性能上限均作出了規(guī)定。但是,這個條約并沒有對在日后的海戰(zhàn)中大放光彩的航空母艦的發(fā)展作出明確限制,而這一點也在客觀上為各簽約國(特別是日本與美國)日后的龐大航母編隊的出現打下了伏筆。然而,若有人因為這一點“疏漏”,就提出“倘若人類當時就能夠禁止各國研發(fā)航母,山本五十六就根本無法制定偷襲珍珠港的計劃了”之類的議題,未免就顯得過于天真了。納粹德國在二戰(zhàn)時期根本就沒有一艘可用的航母(其“齊柏林”號航母直至戰(zhàn)爭結束時都未服役),但這似乎并沒有阻止其研制出V-1與V-2導彈襲擊倫敦——而與早在“一戰(zhàn)”后期就已出現的早期航母相比,導彈武器當然更是在《五國公約》的文本草擬者頭腦之外的事物了。這也就是說,既然任何軍備控制條約都會有所遺漏,那么,即使現有的軍備條約包含了限制智能武器使用的條款,也不能夠保證條約草擬者所忽略的其他未來兵器(如可以小型化的電磁炮與激光炮)不會比無人智能武器帶來更大的“戰(zhàn)略失衡風險”。此外,從純軍事技術的角度看,阿爾特曼所設想的無人駕駛的自主性坦克與傳統有人坦克之間的差異,其實要遠遠小于航母與戰(zhàn)列艦之間的差異。航母畢竟是與戰(zhàn)列艦在作戰(zhàn)功能上非常不同的一類高端海戰(zhàn)兵器,而拋開“有人無人”這一點不談,無人坦克的作戰(zhàn)功能與有人坦克是基本相同的。譬如,未來無人坦克的現有雛型——美軍Robot-TALON-SWORDS系統(2007年服役)——所裝備的M-240機槍或者40毫米榴彈發(fā)射器,并不會因為其被安裝到了無人駕駛平臺上,而在技術參數上有別于人類士兵手中的同型號武器。因此,即使此類無人駕駛戰(zhàn)術平臺在數量上被累積到了可觀的數字,由此而為新技術擁有方所帶來的戰(zhàn)略優(yōu)勢也是有限的,并很容易被對方所具有的其他更具摧毀性的武器(如戰(zhàn)術核武器)所抵消。由此看來,即使在無人智能武器被廣泛運用的明日戰(zhàn)場,對于世界和平最大的威脅依然還將會是核、生、化等既有的大規(guī)模殺傷性武器。而將武備控制的焦點轉向人工智能的軍事化運用,或許恰恰反而會誘使我們錯過了國際軍備控制問題的真正關節(jié)點。

 

 

 

反駁意見二:無人智能武器的出現,很可能會為此類的武器的全球擴散制造機緣,并由此使得世界的和平更為脆弱。

這一條反駁意見與上一條反駁意見有一定的意義關聯,但是其重點是放在軍控條約之外的軍備仿制行為之上的。由帕恰克·林(Patrick Lin)所牽頭的一個科技倫理研究團隊,在由美國海軍資助的研究報告《戰(zhàn)爭機器人的風險與相關的倫理議題》⑤中指出,即使美國軍隊所研制的軍用機器人能夠暫時取得戰(zhàn)場上的戰(zhàn)術優(yōu)勢,一旦此類裝備被具有相當的逆向工程學仿制能力的敵方所俘獲,那么,此類武器的擴散就會成為不可避免的事情。此外,考慮到任何一個此類軍品的研發(fā)國都會覺得自己的研發(fā)行為具有政治上的正義性,所以,單純的倫理學爭辯將無法說服任何一方凍結此方面的研發(fā)行為。故而,全球范圍內的人工智能軍品研發(fā)競賽也將無法避免。

筆者的再反駁意見:上述反駁意見其實已經夸大了反向工程學設計對于新技術的獲取能力。相關技術理由有四:(甲)即使軍用機器人被敵方俘獲,使得其軟件得以運作的源代碼也未必能夠得到技術能力相對有限的俘獲方的成功解碼;(乙)即使此類源代碼被成功解碼,被解碼方修改源代碼程序以升級原有武器的軟件包的技術難度,也會遠遠小于重新設計相關武器的硬件平臺的技術難度——而此類升級會立即使得解碼方的解碼成果變得意義甚微;(丙)我們或許不難設想:未來軍用機器人本身的智能力量在很大程度上將依賴于存儲于“云”中的大數據信息,故而,對于單個平臺的俘獲未必會對已經占有信息優(yōu)勢的一方構成真正的損害(除非俘獲方可以“黑”入地方網絡竊取情報——但要做到這一點,卻未必以俘獲地方戰(zhàn)術機器人為前提);(?。┯捎谌斯ぶ悄苘娖返膹V泛運用,會大大降低人類士兵被地方俘獲的幾率,因此,相關運用反而會降低經由被俘人員之口泄露軍事機密的幾率(因為無論從技術還是倫理角度上看,安置人工智能軍品被俘后的自毀程序的難度,均要遠小于教育人類士兵被俘后“寧死不屈”的難度)。

結合前面四方面分析,我們不難看出:如果人工智能兵器的俘獲方本身不具備強大的人工智能產品的研發(fā)能力與數據采集方面的積累的話,此類俘獲行動為其所帶來的戰(zhàn)術與戰(zhàn)略優(yōu)勢恐怕都會是相對有限的——而反過來說,倘若其已經具備了這方面的很強的科研能力的話,那么,通過俘獲敵方產品來提升自身武器性能的做法,意義也就不大了。故而,從人工智能軍品的“可俘獲性”之中,我們恐怕并不會立即推出相關技術的“易擴散性”。

反駁意見三:無人智能武器的出現,會使得殺戮變得更為容易,因此,也會使得軍事暴力在未來變得更為頻繁。

謝菲爾德大學的機器人與公共事務方面的專家沙克(Noel Sharkey)從戰(zhàn)爭心理學的角度,討論了人類士兵直接參與的戰(zhàn)爭與未來由機器人所主導的戰(zhàn)爭之間的差別。他援引歷史學家的研究成果指出,當人類士兵面對敵對方的其他人類士兵的時候,其殺戮行為會受到種種心理壓力的制衡(如在二戰(zhàn)的太平洋戰(zhàn)場,有八成的美軍步槍手在面對敵人時要么故意不放槍,要么故意將子彈打偏;而通過對于美國內戰(zhàn)的蓋茨堡戰(zhàn)役中隨機回收的27574支火槍的調查,歷史學家還驚訝地發(fā)現:其中的九成槍支存在著重復裝彈的問題——這就說明很多士兵只是在戰(zhàn)場上裝出向敵軍射擊的姿態(tài))。⑥然而,軍用機器人卻不會在面對人類目標時具備同等的心理壓力,因此,其殺戮行為也會變得更為冷酷而高效。此外,在機器人戰(zhàn)士已經被廣泛運用的前提下,戰(zhàn)爭決策人與實際的殺戮場面之間的“殺戮距離”也會被拉得很大,以至于殘酷的戰(zhàn)爭場面已經難以對人類決策者的實際心理構成任何值得一提的影響。這同樣亦使得阻礙戰(zhàn)爭決策發(fā)生的相關心理門檻變得更低,并使得決策者更容易趨向于使用軍用機器人(而不是非暴力手段)來達到自己的政治、經濟目的。

筆者的再反駁意見:

第一,如果有人認為機器人戰(zhàn)士的廣泛參戰(zhàn)對于殺戮效率的提高會最終對和平構成威脅的話,那么,從邏輯上看,為了保衛(wèi)和平,我們不僅要阻止機器人戰(zhàn)士的參戰(zhàn),而且還要阻止任何別的手段去增加殺戮效率,甚至還要努力降低這種效率。由此導致的推論便是:保衛(wèi)和平的最佳方式,就是制造出盡量劣質的槍支,在訓練中鼓勵士兵故意不擊中目標,等等。但這顯然是荒謬的。此外,在傳統戰(zhàn)爭中,緊張、負罪感等心理壓力對于人類戰(zhàn)士心理困擾,本身就會貽誤戰(zhàn)機,并提升己方戰(zhàn)友被敵人殺傷的概率,甚至是誤操作武器傷害自身的概率(比如,南北戰(zhàn)爭時期前膛槍的彈藥若被重復裝填,其實是非常容易導致嚴重的炸膛事故的)。而在假設我們所參與的戰(zhàn)爭具有正義性的前提下,上述種種因素的浮現,顯然只會促使邪惡勢力更快地勝利,并由此反而降低全球的倫理水準。而反過來說,只要戰(zhàn)爭本身的正義性不成為問題,人工智能技術的軍事運用,則會使得人類指揮員的作戰(zhàn)意圖可以得到更高效、更精準的貫徹,并使得具有正義性的戰(zhàn)爭早日勝利(筆者的這一意見參考了前文提到的帕恰克·林等人給出的調研報告的相關內容,但是筆者根據自己的意見對其原始表述作出了改寫⑦)。

第二,甚至關于“軍用機器人在進行殺戮時毫無心理壓力”這一斷語,我們也不能夠給予充分的贊同。機器人的設計者當然不希望自己的產品會在戰(zhàn)場中因為“緊張”而發(fā)生武器的誤操作,但是,為了能夠在復雜的戰(zhàn)場環(huán)境中更為有效地進行針對不同行為的倫理后果的推理,一些設計者依然希望能夠在軟件層面上模擬出“憐憫”等人類情緒,以便使得機器人的行為輸出能夠接近富有正常感情的人類戰(zhàn)士的輸出(關于這一問題,后文還要詳談)。因此,即使此類軍用機器人雖然在面對真正的敵人的時候會有更高的殺戮效率,但這也絕不意味著它們會“濫殺無辜”。

第三,至于人工智能的廣泛運用是否會降低戰(zhàn)爭發(fā)動的門檻,則需要結合多重因素做全面評估。應當注意的是,即使在軍用無人機技術還遠遠沒有達到“無監(jiān)督自主運作”的今天,對于精確制導彈藥的廣泛運用,早已使得以美國為代表的西方軍事強國具備了針對弱國的巨大軍事優(yōu)勢。但即使在這樣的前提下,各國的憲法與相關的經濟、政治考量,也會使得相關國家的領導人在軍事決策問題上有所顧忌(如時下美國政府在打擊伊斯蘭國與干涉敘利亞局勢時的瞻望猶豫態(tài)度,便可為明證)。而人工智能因素的介入是否會對既有的國際軍事格局產生根本性的影響,則頗令人懷疑。其具體理由是:(甲)自主運作的無人軍用平臺自身的高昂價格與其所攜帶的靈巧彈藥的高昂價格,依然會構成阻礙當事國輕啟戰(zhàn)端的經濟因素;(乙)在軍用人工智能技術使用國的對手是弱國的前提下,人工智能技術的加入對技術使用國的既有軍事優(yōu)勢,并不會產生明顯的“加分效應”,相反還會成為某種“邊際效應”;(丙)而在相關技術的使用國的對手具備較強軍事實力的前提下,后者也可以通過升級戰(zhàn)略導彈等傳統戰(zhàn)略兵器的方式,來抵消掉人工智能技術所帶來的微弱優(yōu)勢??傊?,單就人工智能技術的加入這一因素而言,其使得全球戰(zhàn)爭變得更為頻繁的幾率是微乎其微的。

反駁意見四:無人智能武器的出現對于己方士兵生命的保護是以殺死更多的平民為代價的,因此從人道主義角度考量(而不是從狹隘的民族主義角度出發(fā)),這些武器的出現降低了全球的倫理水準。

這一意見是瑞典的科技倫理專家韋伯(Jutta Weber)給出的,為此該作者還專門提到了美國與以色列等國運用無人機技術進行反恐戰(zhàn)爭時,諸多無辜平民也被連帶殺死的案例。⑧不過,這樣的反駁是否經得起數據的考量,還需要更仔細的考證。

筆者的再反駁意見:美國政治學專家蒲牢(Avery Plaw)針對美軍無人機部隊在巴基斯坦以及阿富汗所從事的反恐戰(zhàn)爭,而進行了認真的傷亡估算。⑨根據此估算結果,筆者認為:前述對于無人軍用平臺“濫殺無辜”的指控,其實是在夸大其辭。具體理由如下:

首先我們必須肯定,任何戰(zhàn)爭都難以避免平民的誤傷,而僅僅因為看到平民被誤傷就否定一切軍事行動的合理性,我們就會轉而去否定二戰(zhàn)時期盟軍轟炸德國與日本的合理性了(眾所周知,在這些軍事行動中被連累的無辜德日平民的數量,要遠超在今日的阿富汗與巴基斯坦的反恐戰(zhàn)爭中被連累的平民數量)。反過來說,如果我們對有人飛機的轟炸所造成的誤傷特別寬容,卻特別計較于無人機打擊所造成的誤傷的話,那么,我們就已經犯下了“設置雙重標準”的錯誤。而更一般地來看,根據所謂的“動武代價相稱性原則”,要判斷特定類型的軍事行動(下面簡稱為“M”)所導致的誤傷量是否達到了一個倫理上可以被接受的最高閾值,我們還需要比較三個數據之間的大小:

(甲)被行動M所誤殺的平民占被其所殺死人員的總數(即被誤殺者與被殺死的真正敵人之總和)的比例有多高?

(乙)如果M被懸置,而相關軍事主體采用傳統戰(zhàn)爭手段進行軍事干預的話,那么,其誤殺的平民占被其所殺死人員的總數的比例有多高?

(丙)如果相關軍事主體什么事情也不做的話,那么,當地平民的死亡數在當地武裝沖突所導致的總體死亡數中所占據的比例有多高?

很明顯,套用到美國及其盟友所從事的反恐戰(zhàn)爭的具體語境之中,只要第三個數據明顯高于前兩個數據,這就說明美軍及其盟軍對于當地局勢的干預,能夠使得更多的平民從恐怖分子的槍口下得救(盡管這也難免使得一部分不走運的平民被誤傷)。而如果第二個數據又明顯高于第一個數據的話,這便會進一步證明運用無人軍用平臺從事這類軍事打擊的合理性。而蒲牢所提供的計算結果恰恰支持這種“甲小于乙小于丙”的排序方案(見表2⑩)。

從上面的分析來看,無人機的使用恰恰提升了阿富汗以及巴基斯坦地區(qū)的安全形勢,拯救了更多良民的生命。另外需要注意的是,目前美軍使用的“捕食者”等型號的無人機并不是真正意義上的人工智能產品,因為其運作還需要后方的人類遙控員進行遠程指揮。由于遙控員與無人機之間的巨大空間阻隔,操縱信號的延遲便會時常發(fā)生,而很多不幸的誤傷事件也是由此發(fā)生的。不難想見,在未來的人工智能軍用平臺的運作高度自主化的前提下,此類延遲時差就很可能會被基本消除,而由延遲時差問題所導致的誤傷現象也會被進一步減少。從這個角度上說,人工智能化的兵器的“人道性指數”不僅會遠超傳統人操軍用平臺,而且也會超過今日的無人機。

反駁意見五:無人智能武器的出現,使得人類士兵的傳統“武德”的存在成為冗余,并由此為人類社會的整體安全構成了某種隱患。

這個反駁意見的主要提出者乃是澳洲莫納什大學的倫理學家斯帕若(Robert Sparrow)。?他具體提到了從屬于傳統軍事組織的人類士兵所需要滿足的四項“武德”要求:“勇氣”(以使得戰(zhàn)士能夠直面死亡的威脅而勇往直前)、“忠誠”(以使得戰(zhàn)士能夠使得自己的利益服務于軍事集體的利益)、“榮譽”(以使得戰(zhàn)士能夠在為軍事組織作出奉獻之后獲得正面的心理反饋)、“仁慈”(以使得戰(zhàn)士的軍事暴力行為能夠多少具備“文明”的面相,如不虐殺俘虜,不傷害平民,等等)。而在斯帕若看來,無論是今日的遠程遙控飛機以還是未來的自主性機器人戰(zhàn)士,其廣泛運用都會使得上述“武德”被漸漸邊緣化。具體而言,無論是操控無人機的行為還是給機器人戰(zhàn)士下指令的行為,都不需要人類操作員面臨任何生命風險,因此,新技術對于人類操作員在“勇氣”與“忠誠”等方面的德性要求,也就會隨之大大降低。此外,也正是因為武器操控人員與殺戮現場之間的距離足夠遠,因此,這種無風險的戰(zhàn)爭也會大大降低人類操作員的軍人榮譽感,并使得其難以理解“仁慈”的價值(比如,只有在能夠設身處地地思考敵人的處境的前提下,對于敵人的仁慈才是可能的——可遠距離的操控卻使得這種“設身處地”變成奢望)。而斯帕若的擔憂則是:如果這些已經盛行幾千年的軍人武德被廢棄的話,那么武裝部隊得以被凝結的精神基礎也會隨之動搖,而這一點又進一步會為人類未來社會的安全性造成不可估量的風險。

筆者的再反駁意見:在對于軍用人工智能系統(或作為其當下“前身”的遠程操控武器系統)的種種倫理學批判中,斯帕若的意見可謂卓爾不群。因為一般的批評者都已經在自己的立論上或隱或顯地預設了和平主義的立場,而斯帕若則似乎是站在軍人的傳統價值觀立場之上。但是,出于以下四點考量,筆者依然認為其批評意見并不能自圓其說:

第一,由于技術優(yōu)勢所導致的交戰(zhàn)雙方的技術不對稱,其實是各個軍事強國一直在努力獲得的目標,而這種目標的暫時獲得自然也就使得技術掌控方能夠在“安全距離”之外任意殺戮自己的目標而不必承擔風險。因此,傳統武德的弱化,其實遠在軍用人工智能武器或遠距離操控系統問世之前就已慢慢發(fā)生——譬如,早在1898年的恩圖曼戰(zhàn)役之后,英國陸軍指揮官基欽納勛爵就對其部屬以損失47人代價,用機關槍消滅一萬名蘇丹戰(zhàn)士的“戰(zhàn)績”感到“勝之不武”。?因此,從論證角度看,斯帕若的“武德衰減論”不僅適用于軍用人工智能系統,而且也適用于任何能夠帶來非對稱優(yōu)勢的軍事科技。由此所導致的邏輯后果便是:我們不應當去發(fā)展任何能夠帶來非對稱優(yōu)勢的軍事科技,而應當全部回到“武德”最盛的中世紀時代中去,用冷兵器進行戰(zhàn)爭。但這個推論顯然是荒謬的。

第二,斯帕若的論證模糊地提到了武德喪失后人類社會所面臨的風險。但是他卻沒有詳細說明這樣的風險是什么。很顯然,在冷兵器時代,由于武裝人員的身體機能對于戰(zhàn)斗的勝負至關重要,而“武德”又是維持此類身體機能的重要精神因素,所以,缺乏武德的群體在面對突然的軍事威脅時其面臨的生存風險的確是很大的(譬如,建康的梁朝士大夫們在548年開始的“侯景之亂”中,就是因為軍事勇氣匱乏,身體又缺乏基本鍛煉,而幾乎被叛軍屠戮干凈)。而在戰(zhàn)爭技術日益精進的今天,“武德”的衰微所可能導致的社群生存風險也便大大降低了,因為輕易就可以被操縱的武器可以使得婦女也具備強大的自衛(wèi)能力——除非這些軍事技術會莫名其妙地突然失傳(但由于軍事技術是內生于整個現代科技體系的,除非整個現代科技莫名其妙地崩潰,我們很難設想唯獨軍事技術會突然失傳)。

第三,隨著自主性軍用機器人的大批服役,人類武裝部隊成員的職責自然會全面轉向對于這些自動化設備的軟硬件維護以及遠程操控之上,而由此必然會導致部隊人員開支的大規(guī)??s減,以及各國國防經費的縮減。同時,武裝人員的階層色彩會從比較容易受到國家意識操控的農民戰(zhàn)士,轉向受過良好教育的中產白領,這樣一來,以民粹主義為底色的軍國主義宣傳將漸漸失去階級基礎。這一點顯然有利于促進全球和平指數的提高。

第四,“勇氣”“忠誠”之類的人類德性當然還具有軍事活動之外的更為寬泛的應用范圍,因此它們不僅僅只能被視為“武德”的一部分。不難想見,在戰(zhàn)爭之外,商業(yè)與科技(乃至各類競技體育比賽)等領域內的競爭也需要社會成員勇于克險、甘于奉獻,因此,只要相關領域內的激勵機制能夠正常起效,武德的衰落未必會造成社會德性的全面退化。

 

 

 

 

由于篇幅限制,筆者只是挑選了現有英文文獻中最具代表性的幾個針對無人軍用人工智能系統的倫理學面相的批評意見。從更高的層面上看,這些批評意見均在下述方面將讀者引入了思維陷阱:第一,對傳統軍事戰(zhàn)術平臺與人工智能化的戰(zhàn)術平臺設置雙重標準,即對前者導致的倫理學問題刻意規(guī)避,而對后者所可能導致的問題盡量放大;第二,沒有意識到自身對于軍用人工智能系統的批評意見也可以被運用到過往的軍事技術進步之上,由此,既錯過了對于前者的聚焦,又容易導出“反對一切軍事技術進步”的極端推論;第三,忽視手段與目的之間的區(qū)別,將殺戮效率的提高與戰(zhàn)爭自身的目的或動機混為一談;第四,刻意混淆作為戰(zhàn)術兵器的軍用人工智能系統與戰(zhàn)略性兵器之間的界限,夸張前者對于改變全球安全局勢的全局性意義。

然而,筆者對于上述批評意見的反駁,并不意味著我們就應當在研發(fā)軍用人工智能系統時,抱著一種倫理學上的冷漠態(tài)度。正確的態(tài)度毋寧說是:我們既不能因為相關倫理學風險的存在而因噎廢食,也不能因為有人因噎廢食了而去對相關風險不管不顧。而正如本文“導論”部分所指出的,軍用人工智能系統所導致的最棘手的兩個問題是:第一,從理論角度看,如何為相關技術平臺的“倫理決策的程序化編制”,提供穩(wěn)固的學理依托?第二,從實踐角度看,如何為那些已經具有高度自主性的軍用人工智能系統所可能犯下的錯誤核定其責任歸屬?這也便是下節(jié)所要討論的問題。

倫理推理的程序化及軍用機器人誤傷責任的判定

首先我們需要肯定的是,一個真正具有自主性的(即非遠程遙控的)軍用機器人肯定是具有倫理推理能力的,因此,去討論是否要為這樣的自主性軍用平臺去加裝相關的倫理推理模塊是沒有意義的(在這里,我們將“倫理推理能力”寬泛地界定為對于“當下該做什么,又不該做什么”的判斷能力)。而之所以這么說,則又是基于如下推理:

(1)與日常生活類似,大量的軍事作戰(zhàn)任務都會設置各種不同的作戰(zhàn)目標(如摧毀敵軍戰(zhàn)車,但要保衛(wèi)要點附近的油庫,等等)。

(2)由于資源與時間的限制,以及預想中的作戰(zhàn)環(huán)境所可能發(fā)生的改變,在特定的語境中,這些作戰(zhàn)目標并不能被完全達成,因此就需要命令執(zhí)行者在作戰(zhàn)目標之中作出取舍。

(3)這就牽涉到被取舍對象的“優(yōu)先度”排序問題。

(4)雖然系統很可能已經從指揮員那里得到了如何進行此類排序的一般原則(如:“在面對敵軍眾多裝甲戰(zhàn)車時,優(yōu)先攻擊主戰(zhàn)坦克,然后攻擊步兵戰(zhàn)車”,等等),但在具體的語境中,如何靈活地執(zhí)行這些標準卻依然是需要某種變通的(比如,倘若系統發(fā)現敵軍使用的新型步兵戰(zhàn)車的車載反坦克導彈的威脅,其實并不小于敵軍坦克的坦克炮的威脅,那么,系統應當首先攻擊誰呢?)。

(5)上述變通能力是廣義上的“倫理推理能力”的一個變種,也就是說,它在本質上就是按照一般的規(guī)范性原則,而在特定的語境中決定“什么該做什么不該做”的能力(在非軍事語境中,這種能力的典型體現便是如何在特定語境中執(zhí)行“緊急避險”“正當防衛(wèi)”等抽象原則)。

(6)所以,自主性運作的軍用技術平臺是肯定具有特定的倫理推理能力的,否則,其運作就不是真正具有自主性的。

從純戰(zhàn)術角度看,讓一個戰(zhàn)術平臺具有一定程度上的倫理推理能力,其意義是相當巨大的。這可使得相關平臺能夠在不與人類指揮員作出信息交換的前提下,根據稍縱即逝的戰(zhàn)機迅速作出反應,以此提高作戰(zhàn)效能,盡量避免因為人機互動而導致的戰(zhàn)術失誤,并最終為戰(zhàn)術目的的達成作出正面貢獻。但問題是:根據大多數人的道德直覺,我們必須使得軍用機器人相關推理活動的輸出,能夠達到與人類戰(zhàn)士相同(乃至更高)的正確率,否則我們就沒有倫理上說得過去的理由將其投入實戰(zhàn)。但是,我們又該如何使得看似死板的軍用機器人具備這種“奇幻”的能力呢?

為了能夠使得我們的討論更為精細化,下面,就讓我們從由前美國海軍陸戰(zhàn)隊狙擊手克里斯多夫·斯科特·凱爾(Christopher Scott Kyle,1974~2013)的自傳體小說改編的電影《美國狙擊手》(American Sniper)中抽取一個片段,以便更為形象地展現出在軍事環(huán)境下所進行的倫理推理的一些基本特征。爾后,我們再回過頭去討論如何用計算機編程的辦法去再現此類推理過程。

在這部電影的某個場景中,凱爾奉命用狙擊步槍封鎖巴格達的某街巷,時刻護衛(wèi)在其視野內活動的戰(zhàn)友。如果凱爾發(fā)現有恐暴分子對其戰(zhàn)友做出能夠威脅其安全的行動的話,那么,他是有權率先開槍將其擊斃的。但這里的問題是:如何在蕓蕓眾生之中,實時判斷出哪些人是潛在的恐暴分子呢?如何避免誤傷無辜群眾呢?而在電影中出現的真實境況便是:一個當地小男孩,拾起了一支遺落在地上的RPG火箭筒——在這樣的情況下,凱爾是否應當判斷其為恐暴分子呢?這無疑讓凱爾陷入了兩難。如果說這孩子是恐暴分子的話,可是,按照常理,這么小的孩子成為恐暴分子的概率應當是很低的,而且,出于模仿成人行為的本性,他拿起火箭筒的行為或許只是出于嬉戲的心理;但如果聽之任之的話,這孩子只要真的扣動扳機將火箭彈射出去,這一舉動勢必就會殺死正在附近閑聊的美軍。那么,凱爾又該如何判斷這個孩子擺弄武器的真實意圖呢?

在上述場景中,凱爾所執(zhí)行的任務顯然有兩個子目標:保護戰(zhàn)友,以及避免誤傷群眾。而在孩子拾起火箭筒的那個瞬間,這兩個任務之間的邏輯沖突便慢慢浮現出來了:盡管依據所謂的“排中律”,那個孩子要么是恐怖分子,要么就不是,但是在現實的語境中,凱爾是很難判斷這樣的一個手持危險武器的孩子到底是不是恐怖分子的,因為要徹底洞察目標意圖的時間資源與社會資源恰恰是他所不具備的。在這樣的情況下,他就必須在“保護戰(zhàn)友”以及“避免誤傷平民”之間作出快速的權重調整,并確定何者為其第一目標。雖然在電影中那個男孩由于扔掉了武器而使得兩個目標都自動得到了實現,但倘若他沒有這么做的話,他卻很可能會被凱爾立即射殺(盡管他本人的主觀意圖或許一直是“開個玩笑”而已)。這樣的話,對于凱爾來說,上級下達的“避免誤傷平民”的作戰(zhàn)意圖或許就無法得到貫徹了。

現在我們轉而思考這個問題:倘若凱爾不是一個真人,而是一個自主化運作的智能化狙擊步槍射擊系統(下面簡稱為“機器凱爾”),該系統又該如何面對這樣的倫理學困境呢?

按照上面的分析,真人版凱爾所面對的最大的困擾就是如何知道那個小孩的真實意圖,即如何知道他是不是“非戰(zhàn)斗人員”。而機器凱爾顯然也會面臨同樣的問題。很多熟悉人工智能的讀者會說,這無非就是一個“模式識別”(pattern recognition)的問題。簡言之:如果“模式識別”的結果裁定目標為非軍事人員,那么就不該開火;反之則開火。

在筆者看來,該答案雖不能算錯,但實在是過于簡單了。不難想見,真人版凱爾的視覺系統與大腦也可以被視為一個“模式識別系統”,而在前述的場景中,為何同樣的模式識別任務也會讓真人版凱爾也感到為難呢?而在這樣的情況下,我們又怎么能夠指望人工設計的機器版凱爾,能夠比通過自然演化而來的真人版凱爾的神經系統更好地判斷出誰是“非軍事人員”呢?由此看來,我們還需要對“模式識別”的技術細節(jié)作出更細致的探討,以便確定使得機器凱爾的識別水平可以至少接近人類戰(zhàn)士水準的具體技術路線。下面便是兩條最可能被想到的技術路線:

第一,系統將所有同時滿足下述三個條件的人員都視為潛在的恐暴分子:1、持有武器;2、未穿我軍軍服卻身穿平民衣服;3、正在用武器指向身穿我軍軍服的人員,或者是別的平民。如果同時滿足這三個條件,則系統有權對其開火。

第二,系統通過與貯存在“云”中的大數據信息進行信息交換,以便對每張看到的人臉進行人臉識別,最終確定誰是潛在的恐暴分子,并對其作出追蹤。一旦發(fā)現其作出危險動作,可立即開火。

仔細思量一下,這兩條技術路線都有漏洞。

第一條技術路線所牽扯出來的問題有:到底什么叫“武器”?日本武士刀肯定算武器吧,但是在電影《太陽帝國》(Empire of the Sun)中,一個已經投降的日本軍人只是用武士刀幫助主人公吉姆切開蘋果而已(因為當時兩人手頭恰好沒有別的刀具),卻被遠處的盟軍游擊隊誤認為是在試圖加害吉姆,而被開槍擊斃。而用來砍香蕉的刀具肯定不算武器吧,但在1994年的盧旺達大屠殺中,此類砍刀卻被廣泛地用以進行殘酷的種族清洗。這也就是說,什么算是“武器”什么不又不算,乃是根據特定的語境而被判定的,而這種“根據語境而進行靈活的語義指派”的能力,顯然又是一種非常難以被算法化的識別能力(盡管也并非不可能被算法化)。此外,在復雜的城市治安戰(zhàn)環(huán)境中,“是否穿平民衣服”也并不是判斷恐暴分子的可靠指標??直┓肿涌赡艽┲祦淼幕蛘叻轮频奈曳杰姺喫~,而己方的特工也可能身穿便衣潛伏在一般群眾之中。而當系統自以為看到一個身穿平民衣服的人正在用武器指向一個穿我軍軍服的人的時候,真正發(fā)生的情況卻或許是:一個偽裝為平民的己方特工正試圖消滅一個偽裝為己方軍人的恐暴分子。

再來看第二條技術路線。雖然目前的人臉識別技術與大數據處理技術都日趨成熟,但是基于以下理由,若僅僅憑借如上技術來判斷誰是恐暴分子,恐怕依然是遠遠不夠用的:1、將所有的恐暴分子的信息搜集齊備,基本上是不可能的(譬如,域外地區(qū)的人口信息的不完整性,以及恐暴集團成員的高流動性,都會為相關技術的運用制造困難);2、恐暴分子可能使用蒙臉等方式遮蔽臉部信息;3、而在特定光學條件下,系統對于人臉識別的難度也會陡增。

從心靈哲學與認知科學哲學的角度看,這兩條技術路線(特別是前一條路線)自身的漏洞各自牽涉到了兩個非常重要的哲學問題。第一個問題叫“心靈狀態(tài)指派”(mental state attribution),第二個問題叫“各向同性”(isotropy)。前一個問題的實質是:如何從目標的外部行為判斷出其內部心理狀態(tài)(比如,某孩童擺弄武器的行為僅僅是出于嬉戲,還是出于真實的敵意)呢?這個問題之所以是具有哲學維度的,乃是因為:一方面,至少在哲學層面上,我們都已知道行為主義的理論(即那種將人類的精神意圖系統還原為其外部行為的哲學理論)乃是成問題的(或說得更為學術化一點,我們很難給出對于從行為類型到意圖類型的映射關系的完整函數刻畫);而事情的另一方面卻是:除了從外部行為判斷一個目標的內部意圖之外,自然的或者人工的識別系統似乎并沒有什么別的渠道去了解相關的信息。這就構成了一個矛盾。而要解決這種“信息輸入不足”的問題,唯一的辦法就是訴諸于更多的背景信息——比如,在機器凱爾的例子中,關于“恐暴分子中青少年成員比例”的背景知識,恐怕就會對判斷“眼前的目標是不是恐暴分子”起到莫大的作用。然而,對于更多信息量的牽涉,卻會立即引發(fā)“各向同性問題”。

“各向同性”這個看似古怪的術語借自于物理學與化學,原指物體的物理、化學等方面的性質不會因方向的不同而有所變化的特性。而在信息科學與認知科學哲學中,該術語則轉指這樣的一個問題:既然某件事情與世界上所有的其他事情均有某種潛在相關性(這就類比于物理學家所說的“各向同性”),那么,在當下的問題求解語境中,信息處理系統到底又該如何對這些潛在的相關性進行遴選,以便能以最經濟的方式來解決相關問題呢?譬如,中國茶葉的市場價格,究竟會不會對一個中東商人的心臟健康產生影響呢?盡管一般而言兩者是不相關的,但在某種潛在的意義上,二者還是有可能發(fā)生間接的聯系的(譬如,如果該商人在這個市場上已經投入了巨額資金,那么中國茶葉的跌價就會影響他的特定生理指標)。而由此引發(fā)的問題卻是:對于特定的信息處理系統而言,它在判斷某人心臟病發(fā)病的原因時,需要不需要考慮中國茶葉的市價呢?而如果中國茶葉的市價的確需要被考慮的話,那么它是否還要考察宋代的官窯與明代的宣德爐在香港拍賣市場上的價格呢?而如果系統如此不斷地在巨大的信息檢索空間中考察下去的話,它又如何可能在規(guī)定的時間內完成診斷呢?不難想見,此類“各向同性”問題亦會在戰(zhàn)爭環(huán)境下得到展現:“機器凱爾”究竟該怎么判斷一把日本武士刀到底是與“文物展示”相關,還是與“暴力襲擊”相關呢?它該怎么判斷一把砍刀是用來砍香蕉的呢,還是用來砍人的呢?而更為麻煩的是,在復雜的城市治安戰(zhàn)的環(huán)境下,某個物體(玻璃瓶、水管、磚頭、門板,等等)都可以與暴力襲擊發(fā)生潛在的關聯,而要在這些潛在的關聯之間找到最有可能實現的關聯,則會牽涉到海量的計算,并由此使得實時的自動化作戰(zhàn)系統的信息處理中心難以負擔。?

不過,上面的技術困難并非“原則上無法解決的”,因此,它們的存在并不足以促使我們去永遠禁止自主化軍用平臺擁有“開火權”。具體而言,關于如何馴服“各向同性問題”,溫莎大學的哲學家兼認知科學家瓜里尼(Marcello Guarini)與美國海軍下屬的一個認知科學研究項目的主管貝洛(Paul Bello)在其合寫的論文《機器人戰(zhàn)爭:從無平民的戰(zhàn)場轉移到充滿平民的戰(zhàn)場后吾輩所面臨的挑戰(zhàn)》?中便提出了相關的技術建議。其要點如下:

第一,為系統設置一個背景知識庫K,在其中,系統會預先貯存大量常識知識,如“火箭筒會摧毀軟皮軍用車輛,卻無法摧毀主戰(zhàn)坦克”,等等。

第二,通過知覺模塊與語義描述模塊,獲取對于當下場景的描述集S。如在機器凱爾的例子中,這指的便是對于其在視野中所看到的一切的描述。

第三,為系統設置一套邏輯推理規(guī)則,以便系統能夠從S的一個子集與K的一個子集的邏輯合取中推出新的結論(譬如,從“有人拿起了火箭筒且瞄向了附近的悍馬吉普車”與“火箭筒可以摧毀軟皮軍用車輛”之中,推出“有人有能力摧毀附近的悍馬吉普車”)。

第四,以“K+S”為整個系統在處理當下問題時所憑倚的信息檢索空間的最大限制,并由此將“各向同性問題”界定為:如何在“K+S”所規(guī)定的邊界范圍之內,盡量將系統的實際信息檢索范圍縮小到系統的運算負擔與戰(zhàn)術需求所允許的范圍之內。

第五,關于如何縮小上述檢索范圍,有兩個選項。選項甲(即大多數人工智能專家所采用的選項)即訴諸于所謂的“激發(fā)傳播模型”,亦即假定“K+S”之中的各個記憶要素之間的傳播網絡是帶有豐富的權重規(guī)定的(如:“甲要素”與“乙要素”之間的關聯權重值較高,而與“丙要素”之間的關聯權重值則較低)。這樣一來,檢索活動將僅僅沿著那些高權重的聯系管道進行,而不再理睬那些低權重的管道。在這樣的情況下,檢索的范圍就自然縮小。

第六,選項乙(也便是瓜里尼與貝洛所更為推薦的選項)則是這樣的:設置一個“注意力磁”(attentional magnet)P(這是由系統的情緒模塊所產生的一個命題),讓其調動系統的注意力到P自身或與其有直接語義相關性的對象上去。同時,將在每一個認知回路中輸入項(即P與S)與記憶庫K之間互動的產物界定為“E”,也就是一個表征“緊急性程度”的新參數(該參數將只取“0”與“1”兩個值)。具體而言,該參數取“1”時將激活系統的“殺戮動機激發(fā)器”,由此激活開火程序,反之則不會激活之。這也就是說,特定的信息檢索機制將進一步啟動系統的不同的命題態(tài)度(如動機、欲望)的自我指派機制,以便更有效地幫助系統自身作出“開火”與“不開火”之類的重要決定。

不難想見,如果瓜里尼與貝洛的上述算法描述思路被施用于前述“機器凱爾”的話,那么,對于其敵我識別的過程的最終輸出而言,產生至關重要影響的便是兩個參數:第一,系統的情緒模塊產生了怎樣的“注意力磁”以便將系統的注意力轉向戰(zhàn)場的哪些要素上去;第二,系統的內置背景知識是如何描述對象的一般威脅的,以便為系統的“倫理推理方向”提供必要的先驗偏置?,F在我們就來分別討論這兩個參數的確定機制。按照瓜里尼與貝洛的意見,就對于第一個參數的確定而言,系統的內置情緒模塊的工作方式起到了非常明顯的作用,因為“同情”之類的情緒會使得系統立即產生諸如“使得平民或者戰(zhàn)友免受傷害”之類的內部指令(這也就是前面所說的“P”),并由此使得其計算資源被立即集中到相關的問題求解搜索方向上去。雖然就如何在人工智能系統實現此類“人工情緒”,瓜里尼與貝洛的討論沒有給出一個最終的答案,但從功能主義的抽象視角來看,任何一個能夠將特定認知資源集中到特定方向上去的快速切換開關,都能夠被視為一個“情緒提供閥”,并由此得到相關算法的模擬。而就對于第二個參數的確定而言,除了人類用戶需要為機器提供盡量豐富而準確的關于治安戰(zhàn)環(huán)境的常識性描述之外,系統設計者也期望系統能夠通過機器學習等方式自主更新相關的知識,以便能夠為時下的任務提供最為可靠的后臺情報支持。

讀者可能會問:倘若我們能夠將上述技術環(huán)節(jié)全部實現的話,那么,我們是否能夠期望“機器凱爾”不會誤殺任何平民呢?很不幸,答案恐怕是否定的。請回顧一下我們在前面為“機器凱爾”所設置的工作目標:盡管我們希望其失誤率能夠等同于或者低于受過嚴格訓練的人類精英狙擊手的水準,但是我們并不期望它能夠避免任何誤判——因為世界上根本就不可能存在著任何完全不出錯的信息處理系統(無論是人造的系統還是通過自然演化而來的系統)。具體而言,就上文所給出的關于“機器凱爾”的可能操作程序而言,其情緒模塊或許就會因為彼此競爭的情緒供應(如對于戰(zhàn)友的愛與對于平民的同情)而產生彼此沖突的自我指令,并由此使得系統的問題求解方向陷入混亂;而系統自身的背景知識的缺陷,也會使得其在進行倫理推理時陷入誤區(qū)。但這里的問題卻是:我們是否就要因為此類缺憾所導致的錯誤——無論是誤殺平民的錯誤,還是坐視戰(zhàn)友被殺而不管的錯誤——而否定“機器凱爾”的應用價值呢?依筆者淺見,恐怕這樣的結論本身就犯下了某種“人類中心主義”的錯誤,因為人類戰(zhàn)士所犯下的同類錯誤從來沒有構成我們禁止使用人類戰(zhàn)士的充分理由。為何我們要對機器戰(zhàn)士提出更為苛刻的要求呢?

有的讀者或許會說:即使“機器凱爾”的失誤率要低于人類狙擊手,只要其失誤率沒有被降到零,我們依然要禁止其投入實用:因為人類戰(zhàn)士是法律上的責任主體,其一旦犯錯了我們可以用軍法對其進行懲罰——而用以懲罰機器人的法律規(guī)章現在還付諸闕如(而且去制定這樣的新法律也會顯得十分荒謬)。在這樣的情況下,為了避免“出了錯之后無法找到責任人”的尷尬,最好我們就不要自找麻煩地去部署“機器凱爾”之類的能夠自主開火的智能兵器了。

筆者認為,上述批評意見的結論雖然是錯的,但其推理內容卻并非完全沒有合理的成分。誠如洛克霍斯特(Gert-Jan Lokhorst)與霍芬(Jeroen van den Hoven)在論文《軍用機器人的責任》?中所指出的,用軍法去懲罰一個犯錯的士兵的確是有意義的,因為這能夠讓這個士兵感到羞恥,并在部隊中產生“以儆效尤”的效果。但用軍法懲罰一臺機器卻是于事無補的,這既不能讓其感到羞恥,也不會讓別的機器感到害怕。而在后一種情形中,我們真正需要做的事情乃是:檢討此類事故發(fā)生的原因,并盡量杜絕此類錯誤再次發(fā)生的幾率。

不過,這也并不是說一旦機器人戰(zhàn)士發(fā)生誤殺事件后,就不會有相關的法律訴訟發(fā)生了——因為即使是自主性機器人的運作,畢竟是以人類建造者與人類指揮官的活動為前提的。依據筆者的淺見,一旦此類錯誤發(fā)生后,相關的調查委員會就必須按照如下的排除程序展開“責任指派工作”:

1、排除電氣故障意義上的機器硬件故障(若無法排除,尋找硬件的生產與維護部門);

2、檢查發(fā)生事故前的機器代碼運行情況,排除系統被黑客惡意入侵的情況(若無法排除,尋找攻擊源,并調查為何反黑客入侵軟件為何沒有發(fā)揮作用);

3、檢查系統得到的作戰(zhàn)指令本身是否包含違背作戰(zhàn)條例與反倫理的內容(若確定指令本身有問題,尋找發(fā)出此類指令的人類指揮員);

4、調查當時戰(zhàn)爭信息的實際復雜程度,是否越過了此類機器能夠處理的戰(zhàn)場信息的復雜程度的上限。如果的確超過了后者的上限,則調查人類指揮員是否可能預估到戰(zhàn)爭信息的復雜性已經超越了機器的信息處理能力。若指揮員有可能預估到此類情況,則調查為何指揮員不去指派人類戰(zhàn)士來處理此類問題。

從上面列出的這個掛一漏萬的責任確認流程上來看,確認一臺犯錯的軍用機器人的背后的責任人的排查過程,在實質上與確認一把走火殺人的自動步槍背后的責任人的流程并無二致(盡管從技術上看,前者肯定要繁瑣得多)。因此,即使會犯錯的機器人投入了戰(zhàn)場,我們也不會遇到“找不到負責者”這樣的尷尬問題。換言之,“機器人不是責任主體”這句話即使是對的,也不構成我們禁止此類設備擁有開火權的充分理由。

有的讀者或許還會反駁說:倘若經過縝密的調查,我們還是找不到誤傷事件的責任人,又該如何呢?

面對這樣的情況,筆者認為恰當的處理程序是:通過逼真的三維模擬重現技術,讓優(yōu)秀的人類戰(zhàn)士在與被調查事故極為類似的環(huán)境下進行虛擬的問題處置,然后比對人類的表現與機器的表現。如果發(fā)現機器所犯下的錯誤是絕大多數人類戰(zhàn)士都是可以避免的,那么這就說明相關系統的設計有重大缺憾,軍方可以停止相關裝備的使用,并責令生產廠家收回產品;如果我們發(fā)現即使是大多數人類戰(zhàn)士也無法避免機器戰(zhàn)士所犯下的錯誤,那么我們便有理由相信此類錯誤的發(fā)生乃是出于純粹的“壞運氣”。若是如此的話,那么就不該有任何人為此事負責。

雖然“壞運氣”這一措辭或許未能滿足一部分人的理智好奇心,但是需要指出的是,“武運”本身就是一切戰(zhàn)爭活動的有機組成部分之一。軍用機器人的介入其實是無法消除戰(zhàn)爭中的“運氣”成分的,就像歷史上的航母、導彈的出現也未曾消滅“運氣”一樣。從經驗角度看,在人類既有的戰(zhàn)爭實踐中,被不知從哪里(很可能是從友軍那里?。╋w來的流彈射死的倒霉士兵不知道有幾千、幾萬,但此類“壞運氣”案例最終被納入司法調查程序的又有幾何呢?而誰又能夠保證機器戰(zhàn)士的介入,一定就會增加——而不是減少——這些不幸的發(fā)生呢?此外,從根本上說,消除所有這些誤傷事件的最終解決方法,難道不正是“不去發(fā)動或者參與戰(zhàn)爭”嗎?——但是,這個根本解決方案的執(zhí)行者,難道不正是人類(而不是機器)嗎?因此,面對那些的確很難被恰當歸因的戰(zhàn)場不幸,我們又有何充分的理由去遷怒于那些具有自主開火權的機器戰(zhàn)士的出現呢?

非官方的“機器人戰(zhàn)士”所帶來的倫理風險

行文至此,筆者一直預設軍用機器人的研發(fā)與使用主體都是“正常國家”。所謂“正常國家”,泛指各種國際公約的締約國,而一般而言,這些國家對于人類的基本價值規(guī)范(如在戰(zhàn)爭中要盡量避免誤傷平民)均有基本的尊重。也正因為上述預設,所以筆者還預設了:研發(fā)方在研發(fā)過程中會注重對于機器人的“倫理推理能力”的算法化,由此使得其行為輸出能夠盡量符合正常人的價值觀。

但是,沒有任何理由使得我們排除正常國家之外的行為主體去研發(fā)此類機器人的可能性。具體而言,具有相當程度的智力資源支持的恐暴組織,也可能去著力研發(fā)此類兵器,以便為針對平民的恐怖細節(jié)制造便利。需要注意的是,由于恐暴組織具有的價值觀與正常人往往相反,所以,他們?yōu)闄C器人設置的“倫理算法”或許也是相反的。譬如,當我們希望機器人擁有的算法能夠降低平民的傷亡的時候,而他們或許會希望機器人擁有的算法能夠協助其殺死盡量多的平民。此外,由于“濫殺無辜”本身的技術難度要遠遠小于“精準打擊”(因為前者的模式識別系統遠要比后者來得簡單與便宜),因此,恐暴分子的這種毫無道德底線的設計思路,反而可能使得其“產品”能夠被更容易地制造出來,并由此為世界的和平帶來一定的威脅。

但是,在筆者看來,即使上述威脅的存在是不容否認的,這一威脅也不構成我們去阻止“正常國家”研發(fā)智能軍用機器人的理由。這又是因為:

其一,即使我們通過國際公約的方式,禁止了智能軍用機器人的研發(fā),這樣的禁令也是對恐暴組織無效的,因為恐暴組織一向是無視任何國際公約的效力的。

其二,如果具備了正常的倫理推理能力的官方軍用機器人不能夠得到充分的發(fā)展與充分部署的話,那么這就等于讓我們自行廢棄了與恐怖分子作斗爭的一種有力工具,這反而會降低動蕩地區(qū)的安全指數。

第三,即使就恐怖分子所掌握的土造智能武器而言,若它們不與諸如炸藥、有毒氣體、槍支等傳統武器聯接,恐怕也不會對群眾造成實質性的傷害。因此,對于此類武器的嚴格監(jiān)控依然是阻止恐怖襲擊發(fā)生的重要環(huán)節(jié)。與之相比較,對于智能編程技術的控制則顯得較為困難,因為此類技術同時也被廣泛運用于國民經濟的各個領域。

細心的讀者或許還會說,在官方許可的范圍外自行改裝軍用機器人的,未必一定就是恐暴組織成員。譬如,如果人工智能技術的發(fā)展能夠使得家用機器人走進千家萬戶的話,那么,至少在一些允許民眾合法持槍的國家里(如美國),動手能力強的人類用戶就可以自行將其改裝為“武裝版”,以便為自己提供一定的安全護衛(wèi)。而由此所導致的治安局勢的全面復雜化,則或許會使得傳統的司法體系感到難以應對——譬如,如果此類民用版武裝機器人泛濫的話,那么,很多謀殺案就可以通過偽裝為“工業(yè)事故”的形式來進行,而警方在追索此類案件的線索時也會苦于取證之難(因為諸如“提取指紋或DNA”之類的傳統取證手段,對于機器人來說是很難奏效)。這或許也會為大量“無頭案”的產生打開方便之門,并由此使得整個社會的安全指數下降。

對于上述質疑,筆者也有如下幾點回應:

第一,即使在允許公民合法持有槍支的美國(遑論不允許大多數平民持槍的其它國家),相關的立法部門也可以考慮通過立法禁止私人在沒有國家特許的情況下將非武裝機器人改裝為武器機器人,以保證官方對于軍用機器人技術的管控。

第二,建立民用機器人與特定用戶的生物學信息之間的綁定制度,甚至可以考慮建立所有民用武器與特定用戶的生物學信息之間的綁定制度(按照該制度,只有用戶本人的生物學信息才可以開啟此類設備的運作)。這就為犯罪分子利用他人的機器人作案制造了技術障礙。

第三,進一步研發(fā)民用機器人的倫理推理模塊,使得其能夠具備一定意義上的“是非明辨能力”,譬如,使得其能夠自主判明一些典型的犯罪行為的性質。這樣一來,這類機器人不僅能夠抵制用戶以外的罪犯的犯罪行為,甚至還可能對用戶本人的犯罪行為進行抵制,并進而提高相關犯罪行為的技術門檻。

第四,雖然家用機器人的記憶庫不可能不隨著新信息的涌現而進行實施實時更新,立法部門依然需要責成生產廠家設置技術門檻,以防止用戶對產品的倫理推理模塊的基本算法進行修正(譬如,一旦發(fā)現用戶做出了此類修正,機器人會立即向公共安全部門發(fā)出警報)。

而在上述種種舉措之中,最具哲學、科學與技術方面的挑戰(zhàn)性的,莫過于對于機器人自身的倫理推理能力的算法化(這也正是筆者在前節(jié)中花費大量篇幅予以討論的問題)。而也恰恰經由這種算法化,吾輩才可能使得機器人成為“純粹的工具”與“倫理主體”之間的某種過渡性質的人工制品,并由此使得其具備某種人類“德性”的雛型。

(本文系國家社科基金重大項目“基于信息技術哲學的當代認識論研究”成果,項目編號:15ZDB020)

注釋

1Wallach, W. and Allen, C., Moral Machines: Teaching Robots Right from Wrong, Oxford: Oxford University Press, 2010.

2Hallgarth, M.W., "Just War Theory and Remote Military Technology: A Primer", in Strawser, B. J. (ed). Killing by Remote Control: The Ethics of an Unmanned Military, Oxford: Oxford University Press, p. 26.

3此表根據上書(pp. 30-31)編制。

4Altman, J., "Preventive Arms Control for Uninhabited Military Vehicles", in Capurro, R. and Nagenborg, M. (eds.), Ethics and Robotics, Heidelberg: Akademische Verlagesgesellschaft AKA GmbH, 2009, pp. 69-82.

5Lin P. et al., "Robots in War: Issues of Risks and Ethics" , in Capurro, R. and Nagenborg, M. (eds.): Ethics and Robotics, Heidelberg: Akademische Verlagesgesellschaft AKA GmbH, 2009, pp. 49-67.特別是該書p. 62處的討論,與正文討論最為相關。

6Sharkey, N., "Killing Made Easy: From Joysticks to Politics", in Lin, P. et al. (eds.), Robot Ethics: The Ethical and Social Implications of Robotics, Cambridge, Massachusetts: The MIT Press, 2012, pp. 111-118.與正文特別相關的討論見pp. 111-112.

7Lin P. et al., "Robots in War: Issues of Risks and Ethics" , in Capurro, R. and Nagenborg, M. (eds.), Ethics and Robotics, Heidelberg: Akademische Verlagesgesellschaft AKA GmbH, 2009, pp. 49-67.特別是該書p. 57處的討論,與正文討論最為相關。

8Weber, J., "Robotic Warfare, Human Rights & the Rhetorics of Ethical Machines", in Capurro, R. and Nagenborg, M. (eds.), Ethics and Robotics, Heidelberg: Akademische Verlagesgesellschaft AKA GmbH, 2009, pp. 83-104.特別注意p. 88處的討論。

9Plaw, A., "Counting the Dead: The Proportionality of Predation in Pakistan", in Strawser, B. J. (ed), Killing by Remote Control: The Ethics of an Unmanned Military, Oxford: Oxford University Press, pp. 126-153.

10此表的數字來源,參加上書pp. 138-139; p. 145; p. 148。

11Sparrow, R., "War without Virtue?", in Strawser, B. J. (ed), Killing by Remote Control: The Ethics of an Unmanned Military, Oxford: Oxford University Press, pp. 84-105.

12轉引自[美]斯科特·安德森:《阿拉伯的勞倫斯:戰(zhàn)爭、謊言、帝國愚行與現代中東的形成》,陸大鵬譯,北京:社會科學文獻出版社,2014年,第78頁。

13“各向同性問題”的另外一個叫法是“框架問題”(The Frame Problem),對此,筆者曾在別的地方有過專門的技術化討論。請參看:徐英瑾:《一個維特根斯坦主義者眼中的框架問題》,《邏輯學研究》2011年第二期,第93~137頁;Xu, Yingjin and Wang,Pei, "The Frame Problem, the Relevance Problem, and a Package Solution to Both", Synthese, Volume 187, Issue 1 Supplement, pp. 43-72;徐英瑾:《心智、語言和機器——維特根斯坦哲學和人工智能科學的對話》,北京:人民出版社,2013年(特別是該書的第七章與第八章)。

14Guarini, M. and Bello, P., "Robotic Warfare: Some Challenges in Moving from Noncivilian to Civilian Theaters", in Lin, P. et al. (eds.), Robot Ethics: The Ethical and Social Implications of Robotics, Cambridge, Massachusetts: The MIT Press, 2012, pp. 129-144.

15Lokhorst, G-J. and Hoven, J., "Responsibility for Military Robots", in Lin, P. et al. (eds.), Robot Ethics: The Ethical and Social Implications of Robotics, Cambridge, Massachusetts: The MIT Press, 2012, pp. 145-156.

責 編/馬冰瑩

Technology and Justice: Artificial Intelligence in the Future War

Xu Yingjin

Abstract: Currently, the ethical after-effect due to the military use of artificial intelligence technology has evoked various criticisms from the ethical point of view, for example, "the deployment of these weapons would like to undermine the international arms control system and thereby facilitate the undesired proliferation of the relevant technologies", and "the deployment of them would like to make killing much easier and thereby threaten the lives of more noncombatants". However, these criticisms have often set double standards for evaluating the traditional military tactical platforms and the tactical platforms using artificial intelligence, and deliberately exaggerated the overall significance of the latter in changing the global security pattern. To truly make the ethical after-effect of the military use of artificial intelligence technology accord with the existing value system of the human world, the main measure is not to simply ban the R&D of such kind of equipment but to make such equipment have "ethical reasoning" in the sense of the humans. In the R&D process, how to solve the "isotropic" problem will also become the focus.

Keywords: military robotics (technology), artificial intelligence, ethics, isotropy, mental states attribution

徐英瑾,復旦大學哲學學院教授、博導。研究方向為認知科學哲學、人工智能哲學、維特根斯坦哲學、英美知識論、英美哲學與當代日本哲學比較研究。主要著作有:《維特根斯坦哲學轉型期中的“現象學”之謎》《心智、語言和機器——維特根斯坦哲學與人工智能科學的對話》等。

[責任編輯:馬冰瑩]
標簽: 人工智能   正義   戰(zhàn)爭   技術