科學家普遍認為,當前人工智能尚處于“弱人工智能”階段,即只能出色地完成某一項特定的任務或解決某一類特定問題。但也有一些專家斷言,人工智能軍事化就如同1945年美國第一次進行的核爆實驗及在長崎和廣島投下的原子彈般橫空出世,一定會給國際戰(zhàn)略格局帶來范式性的沖擊。然而,這場革命究竟會如何向世人呈現(xiàn)其真實全貌還未可知。但就武器產(chǎn)生的變革效應和方式而言,核武器與人工智能在性質上頗為不同。核武器在誕生之初即展示出驚人的破壞力,進而對國際安全和國際軍控產(chǎn)生顛覆性的深遠心理和物理影響。而人工智能是賦能技術,必須與其他武器技術相結合才能引發(fā)戰(zhàn)場革命。一些比較悲觀的專家則進一步預言,現(xiàn)有理論研究的內(nèi)在不足將限制人工智能的發(fā)展前景,人工智能在未來無可避免地陷入“寒冬”。既然人工智能帶來的革命性影響是一個未知數(shù),為何國際社會開始急于尋找關于人工智能的國際安全治理的答案呢?
當下的三種爭論
我們在近期眾多的國內(nèi)外會議以及相關文獻中發(fā)現(xiàn),包括政策制定者、科學家、工程師、政治學者在內(nèi)的專業(yè)人士對人工智能是否會沖擊國際安全及如何沖擊國際安全,其實持有頗為不同的觀點和視角。倘若以人工智能對國際安全的影響程度來區(qū)分,這些討論大體可被歸為三種,即主張革命性沖擊的變革派、尚未達到“質變”的演進派以及影響受限的謹慎派。
在這場大爭論中,變革派預測人工智能將對國際安全產(chǎn)生顛覆性影響,斷言其軍事影響力可與核武器相提并論。在他們看來,人工智能在軍事領域的廣泛應用極大地提高了士兵的戰(zhàn)場態(tài)勢感知能力和戰(zhàn)略決策效率,其與機器人的結合一定會顯示出比人類要強大得多的行動力和協(xié)調力。在核戰(zhàn)略較量中,戰(zhàn)略威懾不僅通過理性計算和技術實施,而且也是最高決策者之間的心理較量。而深度學習算法可排除恐懼、焦慮和疲勞引發(fā)的錯誤認知和判斷,剔除人類心理的干擾作用。盡管決策者獲得了更加理性的政策建議,但人工智能介入戰(zhàn)略博弈反而加大了對手理解信號的難度。人工智能賦能的自主武器具備成本低、反應迅速、打擊精準的優(yōu)點。為了追求更大的戰(zhàn)場優(yōu)勢和國際權勢,一些國家會謀求大量部署自主武器,繼而引發(fā)軍備競賽;或者減少對智能武器的限制,最終出現(xiàn)完全自主的致命性殺傷武器。此外,科技的不斷發(fā)展還會侵蝕戰(zhàn)略威懾的基礎,動搖大國間越發(fā)脆弱的戰(zhàn)略穩(wěn)定。擁核國家將加強部署更具有生存能力的第二次打擊,確保對手不敢發(fā)動第一次打擊。因此,確保報復可信度成為大國核戰(zhàn)略博弈的重要基礎。變革派認為,人工智能目前尚存缺陷的探查能力可剛好削弱第二次核打擊能力的可信度,進而威脅到防守方的核報復打擊能力,顛覆大國核戰(zhàn)略博弈的理論前提。
演進派則認為人工智能更應被看作是武器的“放大器”,其作為武器本身并不是直接引發(fā)國際安全范式性變革的主要因素。他們并不否認人工智能有潛力掀起一場戰(zhàn)爭革命,但推斷它對軍事的影響是演進性的。盡管一些國家有可能為了擴大自主武器帶來的戰(zhàn)略紅利而將無人化和智能化作為技術發(fā)展方向,但人類的理性和合作精神始終是決定性因素。致命性自主武器的戰(zhàn)場投放面臨著諸如道德和法律的約束、戰(zhàn)略文化的限制以及官僚機構的制約。這些抑制性因素決定了人類在戰(zhàn)爭中的決定性地位不會被最終替代。演進派認同人工智能加大戰(zhàn)略不穩(wěn)定性的觀點,但強調人工智能尚未導致國家陷入你死我活的困境中。在理想的情況下,如果獲取更全面的情報和分析,一定程度上會降低戰(zhàn)爭風險。即使人工智能可定位一國的導彈發(fā)射井,戰(zhàn)略對手也可提升發(fā)射井的打擊承受力,從而保留第二次打擊的戰(zhàn)略性力量,形成戰(zhàn)略威懾。①
相比于變革派和演進派對人工智能的信心,謹慎派認為人工智能給國家在戰(zhàn)爭中帶來多大的好處模糊不清。新美國安全中心研究員保羅·斯查瑞指出,操作人員能否適應復雜的人工智能系統(tǒng),人工智能系統(tǒng)是否能不被惡意操控,都是重要的安全問題。②對戰(zhàn)場具有革命性影響的新技術往往會復雜化戰(zhàn)略決策和決策組織間互動的過程。作戰(zhàn)部門適應人工智能復雜系統(tǒng)的速度不同,可能給各個部門間協(xié)調造成障礙,反而降低軍事部署的效率。而且,人工智能無法理解人類與生俱來的意圖、期望、情感以及戰(zhàn)爭中的榮譽。這種缺乏理解阻礙了創(chuàng)建安全、高效的人機協(xié)作關系。不論是在戰(zhàn)場上還是在官僚機構中,部署人工智能都要面臨長時間的安全審查。在某些傳統(tǒng)的戰(zhàn)略文化制約下,新技術所起到的效用可能不如預期。尤其是在人工智能技術還不夠成熟的背景下,一個更為謹慎的觀點是不應將其用在高度敏感的核安全領域。此外,人工智能未來發(fā)展面臨技術發(fā)展的瓶頸期阻滯,會顯著偏離很多國際安全專家的樂觀期待。一些專家斷言,現(xiàn)在的人工智能算法家族的發(fā)展?jié)摿χ挥惺?。如果沒有很多重要技術諸如高效的芯片和先進的量子計算機的跨越式突破,將根本性地限制人工智能的未來發(fā)展。③
目前來看,人工智能未來的發(fā)展充滿不確定性,在現(xiàn)實應用中的表現(xiàn)也不如想象的完美?;蛟S,正是因為以上兩點剛好能允許戰(zhàn)略博弈的雙方找到應對方法,進而給這場爭論創(chuàng)造了巨大空間。一方面,變革派對人工智能技術的未來發(fā)展報以極高的期待,但對人類事務的看法十分悲觀。這讓他們能夠以敏銳的目光發(fā)現(xiàn)國際安全面臨的潛在挑戰(zhàn)和安全問題的本質。另一方面,部分謹慎派的人工智能專家對這項技術的未來發(fā)展持保守態(tài)度。他們的悲觀預測反而使決策者和國際安全研究者緊張的神經(jīng)得到放松。不同于變革派將人工智能影響最大化的邏輯,演進派仍然在現(xiàn)有國際安全現(xiàn)實結構和秩序中展開討論,決定了他們必然犧牲部分長遠和深邃的戰(zhàn)略眼光。然而,他們的研究在人工智能還沒有帶來即視的安全沖擊的當下,提供了國際安全治理的可能線索。只要人工智能帶來的安全挑戰(zhàn)不是顛覆性的,當下圍繞人工智能競爭激烈的中美兩國就可以在歷史經(jīng)驗和現(xiàn)有理論中找到大國協(xié)調的答案,存在共同維護戰(zhàn)略穩(wěn)定和構建國際規(guī)范的相對確定預期。
人工智能增加了國際安全的不確定性
在人工智能競賽中,有贏家,也有輸家。沒能成功開發(fā)人工智能技術并搶占市場的國家將遭受經(jīng)濟和福利損失。同樣,軍事應用的投資和開發(fā)不足的國家面臨更大的安全威脅,其地緣影響力無疑會被削弱。換言之,技術競爭絕非是中性的。隨著通信技術的不斷發(fā)展,有先發(fā)優(yōu)勢的國家想要確保在全球數(shù)字轉型中獲取更大的權勢,或者防止自己屈居人下。故此,圍繞著科技制高點的爭奪,在一些觀察家看來將不可避免地引發(fā)一場“大國政治的悲劇”。
中美之間的貿(mào)易戰(zhàn)和科技領導權之爭,似乎印證了這一論斷。政策制定者一般傾向于高估技術突破帶來的權勢變化,低估國家間的合作可以穩(wěn)定國際安全的可能。按照現(xiàn)實主義的邏輯,大國怯于在這場影響國運的競爭中放松神經(jīng),因為它們既不確定自己會否成為贏家,也難以猜想在新的技術秩序變革中自身將出現(xiàn)何種地位的變化。于是,在悲觀而固執(zhí)的零和思維驅使下,美中之間的大國競爭油然而起,正危險地滑向導致世界分裂成兩個對立體系之勢。為此,聯(lián)合國秘書長安東尼奧·古特雷斯發(fā)出危險警告:“世界上最大的兩個經(jīng)濟體創(chuàng)造了兩個獨立的、相互競爭的世界,各自擁有自己的主導貨幣、貿(mào)易和金融規(guī)則、自己的互聯(lián)網(wǎng)和人工智能能力,以及自己的零和地緣政治和軍事戰(zhàn)略。”④
令人擔憂的不只是國際秩序向對抗性方向演進。人工智能已經(jīng)具備了幫助人類從大量信息中篩選出導彈發(fā)射平臺的能力。強大的偵察力已越來越讓中國和俄羅斯擔憂美國跟蹤和鎖定移動導彈發(fā)射器技術發(fā)展成熟后會威脅到它們的核報復能力。⑤如果無人武器設備的隱蔽性和突破性足夠強大,國家就有風險更低、打擊效能更高的攻擊選擇。⑥雖然這種戰(zhàn)術不能保證自身免遭第二次打擊,但這種可能性本身就已經(jīng)十分可怕。面對核威懾,決策者不得不在極其有限的時間內(nèi)作出決策,因而要承受更大的發(fā)動第一次打擊的壓力?;蛘?,國家需要發(fā)展更加危險的傳統(tǒng)武器來平衡威懾不足。由此引發(fā)的軍備競賽迫使國家部署不安全的人工智能系統(tǒng),并進一步加大戰(zhàn)略不穩(wěn)定。對于防守方來說還有另一種選擇,那就是攻擊敵方的探查器件,生成對抗性網(wǎng)絡或采取戰(zhàn)略欺騙的方式來防止對方打擊自己的報復力量。這些努力在一定程度上可確保己方核報復設施的隱蔽性和安全性。但是,這種安全困境的加劇反而會導致意外沖突升級和加大戰(zhàn)略部署判斷的復雜性和誤判可能性。最終,國家不得不面對要么提前發(fā)動進攻,要么輸?shù)魬?zhàn)爭的兩難選擇。
有技術優(yōu)勢的國家會率先在戰(zhàn)場上部署更加先進的武器裝備或建立新的指揮作戰(zhàn)概念。技術落后的國家則因缺少應對策略而陷入相對劣勢。按照現(xiàn)實主義的安全互動模式,大國可能尋求相對優(yōu)勢以規(guī)避他國的軍事進步威脅自己的安全,或者在其他地方尋找抵消對手優(yōu)勢的方法。在軍備競賽的螺線軌跡上,自主武器越發(fā)先進,以至于戰(zhàn)爭速度快到超出人類的反應,由此導致國家爭相部署不安全的人工智能武器,這都將給決策者帶來巨大的心理壓力,扭曲人類戰(zhàn)略應對的固有理性判斷。
此外,自主武器擴散降低了戰(zhàn)爭門檻,加大國家間戰(zhàn)爭風險。軍事行動往往伴隨著人員傷亡的高風險。國家領導人要顧及到民眾對戰(zhàn)爭傷亡的敏感性,因而不敢輕易發(fā)動對外軍事行動。但是,自主武器減少傷亡率預期的特點促使改變戰(zhàn)略決策過程。決策者可以竭力說服民眾只需較小的代價就能獲得更高的戰(zhàn)爭回報,進而擺脫使用武力的國內(nèi)限制,更有利于它們對外投射自己的軍事影響力。不過,自主武器擴散的最大受益人或許并不是大國而是技術基礎較好的中等國家。它們可以借此彌補資源和人口上的劣勢,從而改變國際常規(guī)武力的對比,提高自己在國際均勢體系中的地位。在致命性自主殺傷武器缺乏有效國際規(guī)范的局勢下,大國和這些中等國家的均勢變動將給國際安全體系帶來怎樣的沖擊,令人擔憂。加之人工智能技術本身的脆弱性,更加大了突發(fā)事件發(fā)生的概率。
探索人工智能國際安全治理的演化路徑
人工智能是一項處于不斷發(fā)展進程的賦能技術,很難找到一個完美的定義。它帶來的變革效應正在全球顯現(xiàn),完全禁止已然不可能,任由其肆意發(fā)展也與國際關切和人類共同命運不符。那么,如何對其進行國際治理呢?對政策制定者來說,所需要關注的并非只是技術在國際安全上引發(fā)的眾多不確定性,還有他們對這項技術認識的不斷豐富,進而改變對當下以及未來的治理選擇。擺在我們面前的并不是一個注定的悲劇,而是一個承擔人類發(fā)展重任的抉擇。
在聯(lián)合國框架下,有多個機制都對限制自主武器發(fā)展進行了國際探討。其中,聯(lián)合國《特定常規(guī)武器公約》談判機制自從2014年起已召開了三次非正式專家會議和三次正式政府專家組會議。盡管在國際機制和國際規(guī)范的建立上取得了一定的突破,但是參與討論的各方對于致命性自主武器的適用定義分歧嚴重,均認為其指涉對象十分模糊?,F(xiàn)在來看,不論各方討論的是怎樣的定義,都在一定程度上與既有使用武器的規(guī)則存在矛盾。根據(jù)瑞典斯德哥爾摩和平研究所對154種武器系統(tǒng)的統(tǒng)計分析發(fā)現(xiàn),只有49種武器可以在人類監(jiān)管但不介入的情況下進行合法交戰(zhàn)。它們主要用于對己方設施進行防御,比如保護軍艦或基地、應對來襲導彈等。⑦而致命性自主武器帶來的戰(zhàn)略紅利牽動著各國的安全利益,給后續(xù)軍控行動增加了困難和挑戰(zhàn)。
盡管如此,這并不意味著我們無計可施而注定陷入絕望的無謂爭論之中。在前述2014年第一次非正式專家會議中,各方分歧明顯。有的國家代表認為,致命性自主武器易于擴散且極其危險,終將給人類帶來巨大威脅,需要全面禁止開發(fā)和使用。與之相反的觀點則認為,應該發(fā)展致命性自主武器,因為它未來足夠“聰明”,能夠理解人類戰(zhàn)爭中的道德規(guī)范,甚至可為人類提供一種更加人道的戰(zhàn)爭選擇。兩種觀點都預設了人工智能最終足夠強大,卻給出了完全對立的應對方案。時至今日,他們的預想都缺乏足夠的支持,但看似不可調和的爭論中日漸出現(xiàn)共識。參與討論的各方同意,致命性自主武器的軍控行為不應阻礙民用技術的開發(fā)和促進經(jīng)濟發(fā)展,即使定義不清也不妨礙其他問題取得進展。這表明,決策者的認知不是一成不變的。相關軍控談判不會是一次性達成具有約束力的國際條約,而是制定出致命性自主武器的底線后采取多種軍控手段結合的漸進方式以建立共識性的“軟法”。這需要國家采取自我限制,達成國家之間的非約束性協(xié)議,比如符合現(xiàn)行國際法和國際準則的“行為準則”。這種做法可以應對自主武器引發(fā)的倫理道德問題,但是對于維護戰(zhàn)略穩(wěn)定作用不大。最好的方法或許是國家在尚未出現(xiàn)激烈的軍備競賽前,利用好窗口機遇期,盡早劃出一條能夠確保人類掌握自己生死命運的紅線。
“大分裂”并不是中美兩國唯一的選擇。我們應樂觀地相信,人工智能競賽不是零和游戲。它應當是一項促進人類福祉和推動國家合作的工具。雖然特朗普政府的美國對外政策表現(xiàn)出部分領域“脫鉤”的趨勢,中美兩國的科研合作反而呈現(xiàn)出更加緊密的需求。通過對科學和工程領域的著作進行文獻統(tǒng)計,有研究發(fā)現(xiàn)中美兩國學者在2014至2018年間共同發(fā)表的論文數(shù)量增長了55.7%,因此如果美國貿(mào)然切斷同中國的科研合作可能導致美國的發(fā)表成果數(shù)量大幅下降。⑧從人類歷史而言,科學技術的發(fā)展和在世界范圍的傳播使得各國受益。即便在人工智能技術競爭加劇的今天,一國的技術突破也可能有利于另一國的經(jīng)濟社會發(fā)展。比如,位于北京的微軟亞洲研究院曾支持四名中國年輕學者發(fā)表的一篇關于深度殘差學習的論文,成為近年來該領域的重要引用文獻。在論文發(fā)表后,四位作者中有一位前往美國臉書公司任職,其余三位則加入到中國國內(nèi)的人工智能創(chuàng)業(yè)行列之中。他們的成功無疑讓中美兩國企業(yè)和整個人工智能研發(fā)都有所受益。
在國際安全事務的歷史進程中,不確定性是常態(tài),確定性反而是稀缺的。隨著人工智能技術的發(fā)展,對致命性自主武器的定義不再只限制在技術層面而在于自主能力范圍的問題上。例如,武器的智能化程度成為判定其性質和限制的標準。政策制定者最需要擔心的并不是那些不確定性導致的潛在權勢流失,而是這種認知的固化帶來的長遠風險。他們不應期待以“技術治理技術”的手段獲得穩(wěn)健安全的人工智能系統(tǒng)來解決國際安全困境。安全的軍事系統(tǒng)會在技術層面降低國家之間突發(fā)事件發(fā)生的可能性,但這意味著一國獲得了只有它才有的利器。這將不可避免地加劇軍備競賽,甚至動搖戰(zhàn)略穩(wěn)定而產(chǎn)生災難性后果。同時,國家也不應為了贏得軍備競賽的勝利而爭相部署不安全的人工智能系統(tǒng)。政策制定者既不能低估不同的戰(zhàn)略文化對使用新技術的影響,也不應高估人工智能帶來的安全沖擊。
在人類走過的道路上,到處可見文明破滅的廢墟殘骸、帝國崩潰的殘碑破冢、信仰者和衛(wèi)道者的尸首斷骨,他們被一波波時代的浪潮淹沒,沒能在人類社會進化的道路中找到延續(xù)的崎嶇小道。然而,正是他們的犧牲照亮了我們未來前進的道路,使人類文明有可能免于走向錯誤的演化道路?;赝^去遙望未來,任何對人工智能帶來美好未來的華麗辭藻以及其中所包含的美好期待,都不應掩飾或漠視其中所蘊含的種種危險。而任何否定人工智能的抵觸情緒和對人性的過度信任,都無法阻擋技術發(fā)展帶來的種種好處。我們需要承認,不確定性決定著人工智能的安全治理是一個動態(tài)的過程,基于在未來出現(xiàn)最好或者最壞結果的極端預設可能都很難實現(xiàn)。面對不斷變動的國際環(huán)境,我們需要在不斷發(fā)展的技術和不變的人性中去尋找國際合作的空間。
(作者分別為清華大學戰(zhàn)略與安全研究中心秘書長、教授;清華大學戰(zhàn)略與安全研究中心研究員)