焦點評論軍事

季辛吉:一切與數位網路相連的地方,都將成為新的「戰場」

亨利·季辛吉(國前國務卿,外交家、國際問題專家)

文/觀察者網

【導讀】 「很少有哪個時代面臨過如此局面:一方面,其遭遇的戰略和技術挑戰如此複雜;另一方面,對該挑戰的性質乃至討論其所需的詞彙卻鮮有共識」,2023年,曾親歷二戰和冷戰、在中美建交中發揮過重要作用的亨利·季辛吉以百歲高齡發出了這樣的警告,「如果等到危機來臨才開始思考這些問題,那就為時太晚了。」

近日,季辛吉和谷歌前首席執行官埃里克·施密特、麻省理工學院蘇世民學院院長丹尼爾·胡騰洛赫爾共同推出新著《人工智慧時代與人類未來》。在本書中,季辛吉指出,新興的人工智慧技術極有可能顛覆性地重塑全球安全格局,並有可能加劇中美等大國之間的競爭與對立。他呼籲技術領先國家對此加以重視,未雨綢繆,防患未然,就人工智慧軍事用途的限制積極展開對話。

觀察者網刊出本書第五章《安全與世界秩序》,以供讀者參考。

【文/亨利·季辛吉、埃里克·施密特、丹尼爾·胡騰洛赫爾】

數位時代的衝突

縱觀歷史,一個國家的政治影響力往往與其軍事力量和戰略能力大致匹配。所謂戰略能力,也就是說,通過這種能力,即使僅僅施加隱性威脅,也會對其他社會造成破壞。然而,這種基於力量權衡的均勢不是靜態的,不能自我維持。相反,均勢的維持首先依賴于各方就這一力量的構成要素及其使用的合法界限達成共識;其次,它需要體系內所有成員——尤其是對手——就各個國家的相對能力、意圖和侵略的後果進行一致的評估;最後,它需要一個實際的、公認的平衡。當體系中某一方的力量不成比例地增長、打破平衡時,體系將組織對抗力量或適應新的現實,以設法做出調整。當均勢的權衡變得不確定,或當各國對各自相對實力的權衡結果完全不同時,由誤算引發衝突的風險就會達到最高。

在當今時代,所謂「網路武器」的出現使上述權衡更具抽象性。網路武器涉及軍用和民用兩個領域,因此其作為武器的地位是模糊的。在某些情況下,網路武器之所以能行使和增強軍事力量效用,主要是因為其使用者未披露其存在或未承認其全部能力。傳統上,衝突各方都不難認識到發生了交戰,或者認識到交戰各方是誰,會計算對方的戰力,並評估其部署武器的速度。可是,這些在傳統戰場上顛撲不破的道理卻不能直接套用到網路領域。

常規武器和核武器存在於物理空間中,其部署可以被察覺,其能力可以被(至少粗略地)計算。相比之下,網路武器的效用很大程度上源於其不透明性;若被公之於眾,其威力就會減損。網路武器利用不為人知的軟體漏洞,在未經授權使用者許可或知情的情況下,侵入網路或系統。在「分散式拒絕服務」(DDoS)攻擊(如對通信系統的攻擊)的突發事件中,攻擊者可能會使用大量看似有效的資訊請求來壓垮系統,使之無法正常使用。在這種情況下,攻擊的真實來源可能被掩蓋,使人(至少在當時)難以或無法確定攻擊者。即使是最著名的網路工業破壞事件之一—破壞了伊朗核專案中製造控制電腦的震網(Stuxnet)病毒,也從未被任何政府正式承認。

常規武器和核武器可以相對精確地瞄準目標,根據道德和法律的要求,其瞄準物件只能是軍事力量和軍事設施。而網路武器可以廣泛影響計算和通信系統,往往可對民用系統造成有力打擊。其他行為體也可基於其他目的,對網路武器進行吸納、修改和重新部署。某種程度上,網路武器與生化武器類似,其影響能夠以非預期的、未知的方式傳播,往往不僅影響戰場上的特定目標,且波及大範圍的人類社會。

因此,網路軍備控制難以被概念化,從而進一步推行。核軍備控制的談判人員可以公開披露或描述一類核彈頭,不必否認其功能。而(目前尚不存在的)網路軍備控制談判人員則需要面對以下悖論:一旦對網路武器的威力進行討論,可能就會導致這種威力的喪失(允許對手修補漏洞)或擴散(對手得以複製代碼或侵入方法)。

關鍵網路術語和概念的模糊性使這些挑戰變得更加複雜。在不同的背景下,不同的觀察者將形式各異的網路入侵、線上宣傳和資訊戰稱為「網路戰」、「網路攻擊」或「戰爭行為」。但這些詞彙不固定,甚至有歧義。例如,侵入網路以收集資訊的活動,可能與傳統的情報收集類似,儘管涉及範圍有所不同;部分國家在社交媒體上干預選舉的活動,則是一種數位化宣傳、虛假資訊傳播和政治干預的結合,其範圍和影響遠超以往任何時代。數位技術和網路平臺的擴展,使依託其上的此類活動成為可能。此外,其他網路行動也可能造成與傳統敵對狀態類似的實際影響。網路行動的性質、範圍及歸屬的不確定性,可能會使看似基本無誤的因素成為各方爭論的焦點問題:衝突是否已經開始、與誰衝突、衝突涉及什麼、衝突可能升級到何種程度,等等。從這個意義上說,各個大國正陷入一種網路衝突,但這種衝突的性質和範圍尚無現成的定義。

我們所處的數字時代面臨一個核心悖論:一個社會的數字能力越強,就變得越脆弱。電腦、通信系統、金融市場、大學、醫院、航空公司、公共交通系統甚至民主政治都依託於系統,而這些系統或多或少可被網路操縱或攻擊。隨著發達經濟體將數位指揮和控制系統整合到發電廠和電網中、將政府項目轉移到大型伺服器和雲系統中、將資料轉謄到電子帳簿中,它們在網路攻擊面前也就變得倍加脆弱。這些行為提供了更豐富的目標集合,因此僅僅一次成功的攻擊就可能造成實質性的破壞。與此相對,面對數位破壞,低技術國家、恐怖組織甚至個人攻擊者所承受的損失可能要小得多。

網路能力和網路行動成本較低,且具有相對的可否認性,因此,一些國家可能會使用半自主行為體來執行該功能。與一戰前夕遍佈巴爾幹半島的准軍事集團一樣,這些半自主團體可能難以控制,在未經官方批准的情況下開展挑釁活動。網路領域中行為的快速和不可預測性、各種行為體間關的複雜性,以及可以極大削弱一國網路能力並攪亂國內政治格局(即使這些活動不會升級到傳統的武裝衝突水準)的洩密者和破壞者的存在,都可能誘使決策者「先發制人」,以防遭受致命打擊。

網路領域行為的速度和模糊性有利於進攻方,並鼓勵以「積極防禦」和「向前防禦」尋求擾亂、排除攻擊。網路威懾可能達到的程度,部分取決於防禦者的目標及衡量成功的標準。最有效的攻擊往往不會達到武裝衝突的傳統定義門檻(通常未得到立即承認或正式承認)。即便是為了威懾,也沒有任何一個主要的網路行為體公開其全部的能力或活動,無論該行為體是政府的抑或非政府的。因此,儘管新的能力正在湧現,相關戰略和理論仍處於隱蔽的陰影中,以不確定的方式演變。我們正處於全新的戰略前沿,需要進行系統性的探索,促進政府和工業界密切合作以確保有競爭力的安全能力,還需要大國之間在適當的保障措施下及時就網路軍備限制進行討論。

人工智慧與安全領域的動盪

核武器的破壞性和網路武器的神秘性,正日益與一種更新的能力相結合,也就是前幾章中所謂基於人工智慧原理的能力。各國正在悄無聲息地、有時是試探性地、但又確鑿無疑地發展和部署人工智慧,這將促進各種軍事能力的戰略行動,進而對安全政策產生革命性影響。

將非人類邏輯引入軍事系統和過程,會給戰略帶來改變。通過與人工智慧共同培訓或與之合作,軍隊和安全部門的洞察力和影響力顯著提升,這既令人驚訝,也令人不安。軍隊與人工智慧的夥伴關係,或將否定傳統戰略和戰術的某些方面,而加強另一些方面。如果人工智慧被賦予許可權,能夠在一定程度上控制(攻擊性或防禦性的)網路武器或飛機等物理武器,它可能會迅速執行人類難以執行的功能。例如,美國空軍的人工智慧ARTUμ已經在飛行測試中成功駕駛飛機並操作雷達系統。ARTUμ的研發初衷是在無人干預的情況下做出「最後抉擇」,其能力僅限於駕駛飛機和操作雷達系統,但其他國家和設計團隊可能就沒有那麼大的限制了。

人工智慧的自主和獨立邏輯能力不僅有可能推動變革,還具有一定的不可預料性。大多數傳統的軍事戰略和戰術都基於對人類對手的假設,即假設對手的行為和決策計算符合某種可識別的框架,或者可由經驗和傳統智慧界定。然而,當人工智慧駕駛飛機或用雷達掃描目標,它遵循的是其自身的邏輯,難以被人類所理解,也不受傳統信號和佯攻的影響,而且,其邏輯執行速度往往高於人類的思維速度。

戰爭一向充滿不確定性和偶然性,但人工智慧的進入將為其帶來新的變數。人工智慧是不斷發展變化的新事物,因此,即使是那些創造出人工智慧並使其設計或操作的武器的強國,可能也無法確定其威力、無法預判其行動。人工智慧可以感知到人類無法或無法快速感知的環境,甚至能以超越人類的思維速度與思維廣度進行學習和改進,對於這樣一種事物,我們怎麼可能制定有針對性的進攻或防禦戰略呢?如果人工智慧輔助武器的效果取決於人工智慧在戰鬥中的感知及從中得出的結論,那麼,某些武器的戰略效果是否只能在使用中得到證明?如果競爭對手在靜默和保密的情況下訓練其人工智慧,那麼在衝突尚未發生時,領導人能知道己方在軍備競賽中是領先還是落後嗎?

在傳統的衝突中,對手的心理是戰略行動瞄準的關鍵點。但演算法只知道指令和目標,而不知士氣或懷疑為何物。由於人工智慧可以適應其所遇現象,當兩個人工智慧武器系統彼此對抗時,交戰雙方都無法準確理解這一交互將產生何種結果、造成哪些附帶影響,也就無法清晰地把握對方的能力、預測衝突的代價。對人工智慧武器的工程師和構建者而言,由於受到這些限制,他們在研發和製造過程中會更注重提高武器的速度、影響廣度和持久度,從而使衝突更激烈、廣泛、不可預測。

同時,即使有人工智慧輔助,強大的防禦也是安全的先決條件。新技術的普遍性使人們無法單方面放棄它。然而,即便是在整兵備戰時,各國政府也應該評估並嘗試將人工智慧邏輯加入人類戰鬥經驗,以使戰爭變得更人道、更精確。新技術對外交和世界秩序的影響也需加以反思。

人工智慧和機器學習可以擴大現有武器的打擊能力,進而改變行為者的戰略和戰術選擇。人工智慧不僅能提高常規武器的瞄準精度,還能改變瞄準方式,比如(至少在理論上)瞄準某個特定的個人或物體,而非某個地點。通過研究大量資訊,人工智慧網路武器可以學習如何滲透防禦,無需人類尋找可利用的軟體漏洞。同樣,人工智慧也可用於防禦,在漏洞被利用之前發現並修復它們。但是,由於攻擊者可以選擇目標而防禦者不能,在人工智慧的輔助下,進攻方即便不是戰無不勝,也能占得先機。

如果一個國家面對的對手已經訓練人工智慧來駕駛飛機、獨立瞄準並決定開火,這將如何影響戰術、戰略或訴諸升級戰爭規模(甚至是核戰)的意願?

人工智慧開闢了資訊空間能力,包括虛假資訊領域。生成式人工智慧可以創造大量似是而非的虛假資訊,包括偽造的人物、圖片、視頻和演講等,以此為資訊戰和心理戰推波助瀾。理論上,人工智慧可以合成看似真實的衝突照片和視頻,讓公眾人物「發表」他們其實從未說過的言論,並將其以最有效地方式廣泛轉發給目標群體,迎合人們的偏見和期望。如果一個國家領導人的合成形象被對手操縱,以製造不和或發佈誤導性指令,公眾(甚至其他政府和官員)能夠及時識破騙局嗎?

與核武器領域不同的是,對人工智慧的使用並不存在公認的禁令,也沒有明確的威懾(或升級程度)概念。美國的競爭對手正在打造人工智慧輔助武器,包括實體武器和網路武器,據報導,其中一些已投入使用。人工智慧大國有能力部署機器和系統,這些系統具有快速邏輯推理和不斷演化的行為能力,可用於攻擊、防禦、監視、傳播虛假資訊,以及識別和破壞敵方的人工智慧。

隨著變革性人工智慧能力的不斷發展和傳播,在沒有可驗證的限制因素的情況下,世界主要國家會繼續追求優勢地位。它們會假定,新的、可用的人工智慧一旦出現,就必定會擴散。由於具備軍民雙重用途、易於複製和傳播,人工智慧的基本原理和關鍵創新在很大程度上是公開的。即使對其加以監管,監管機制也很難做到無懈可擊:監管方式可能隨著技術進步而過時,也可能被竊取人工智慧者發現漏洞。人工智慧的新使用者可能會調整基礎演算法,以實現迥然不同的目標,一個社會的商業創新可能會被另一個社會用於維護安全或資訊戰。政府時常會採納尖端人工智慧發展中最具戰略意義的方面,以滿足其國家利益設想。

平衡網路力量平衡、將人工智慧威懾概念化的相關工作尚處於起步階段。在對這些概念給出確切定義之前,對此類問題的規劃是抽象的。比如,在衝突中,交戰一方可能試圖使用或威脅使用一種效果未知的武器,以此摧垮對方的意志。

而最具顛覆性且不可預測的影響,可能發生在人工智慧和人類智慧遭遇之時。縱觀歷史,積極備戰的國家對其對手的理論、戰術和戰略心理,即便不是洞若觀火,至少也有大致瞭解。這使對抗性戰略和戰術得以發展,並形成了一系列象徵性話語(例如攔截靠近邊境的飛機、通過爭議水域等)。然而,當由人工智慧來制訂計畫或鎖定目標,甚至由人工智慧在常規巡邏或衝突期間提供動態協助時,這些原本熟悉的概念和互動可能會變得陌生——人們需要與一種新型智慧打交道,而該智慧的運作方式和戰術都是未知的。

從根本上說,向人工智慧和人工智慧輔助武器及防禦系統的轉變,將導致對智慧的依賴。這種智慧的運作所基於的經驗範式與人類有本質區別,且具備可觀的分析潛力。在極端情況下,這種依賴甚至演變為一種授權,可能導致未知的風險。因此,人類操作者必須對具有潛在致命影響的人工智慧加以監控,即便不能避免所有錯誤,至少要保障道德責任和問責能力。

然而,最深層的挑戰可能是哲學層面上的。如果戰略的分析運作無法再為人類理性所理解,則其過程、範圍和最終意義將變得不再透明。如果決策者認為,在揭示現實的最深層模式、瞭解(可能擁有自己的人工智慧的)對手的能力和意圖並及時做出應對的過程中,人工智慧的輔助已必不可少,那麼,將關鍵決策權下放給機器可能成為必然趨勢。各個社會可能會就「哪些決策權可以下放」、「何種風險和後果是可以接受的」等問題,給出各不相同的答案。主要大國應當未雨綢繆,提前就該演變的戰略、學說和道德影響展開對話,否則將導致不可逆的影響。國際社會必須做出努力,以限制這些風險。

管控人工智慧

在智慧體系互相對抗之前,我們必須對這些問題加以考量和理解。隨著網路和人工智慧能力被用於戰略目的,戰略競賽的領域變得更為廣闊,從而使這些問題變得迫在眉睫。某種程度上說,網路和人工智慧使一切與數位網路相連的地方都成為「戰場」。如今,數位程式控制著一個由眾多實體系統構成的領域,該領域極為龐大,且仍在增長(某些情況下,甚至連門鎖和冰箱都接入了網路)。這催生出一個極其複雜、廣泛和脆弱的系統。

對人工智慧強國來說,追求某種形式的彼此理解和相互制約至關重要。由於相應系統和能力可以通過電腦代碼的變化而輕易地悄然改變,各大政府可能傾向於認為,其對手在戰略敏感的人工智慧研究、開發和部署方面的步調會比其公開承認甚至私下承諾的更進一步。從純技術角度來看,讓人工智慧參與偵察、鎖定目標或是展開致命性自主行動並不難,因此,一套相互制約和驗證的體系的體系的構建顯得既緊迫又困難。

要尋求保障和制約,就必然與人工智慧的動態本質相抗衡。由人工智慧驅動的網路武器一旦問世,就可能在適應能力和學習能力上遠超預期;武器的能力或將隨之改變。如果武器能夠以某種方式改變,且改變的範圍或性質不同於預期,那麼威懾和升級的設想可能變得更加撲朔迷離。因此,無論是在初始設計抑或最終部署階段,都需要調整人工智慧的運行範圍,以便人類對系統加以監視,在其偏離初始目標時將其關閉或重新定向。為了避免意外、潛在的災難性後果,這種限制必須是相互的。

無論是限制人工智慧和網路能力,抑或遏制其擴散,都非常困難。主要大國開發和使用人工智慧和網路的能力,有可能落入恐怖分子和流氓幫派手中。同樣,那些沒有核武器、常規武器軍力也有限的小國,也可以通過投資尖端的人工智慧和網路武器,發揮出巨大的影響力。

各國勢必會把非連續、非致命的任務委託給人工智慧演算法(部分由私營實體操作),其中包括執行檢測和防止網路空間入侵的防禦功能。一個高度網路化和數位化的社會「受攻擊面」太大,人類操作者無法僅憑手動實現防禦。隨著人類生活的許多方面轉移到網上,經濟也持續數位化,一個流氓網路人工智慧就可能破壞整個行業。國家、公司甚至個人都應該著手構建某種失效保護體系,以防患於未然。

這種保護的最極端形式即切斷網路連接。對國家而言,離線可能是終極的防禦形式。如果排除這種極端措施,那麼,能夠執行某些重要網路防禦功能的就只有人工智慧了——網路空間浩瀚無垠,在此可採取的行動選項幾乎無窮無盡,因此,除了少數幾個國家,這一領域內最重要的防禦能力可能是其他國家力所不及的。

除了人工智慧防禦系統,還有一類最令人頭疼的武器——致命自主武器系統。該系統一旦被啟動,就可以在沒有人類干預的情況下選擇目標並實施打擊。這類武器的關鍵問題是人類對其缺乏監督和干預的能力。

一個自主系統「在其指令環路中」的某些行動需要人類授權,或需要一個人「在指令環路上」被動地監控其活動。除非受到可遵守和可證實的相互協議的限制,前者最終可能涵蓋全部戰略和目標(例如保衛邊境或實現針對敵人的特定結果),且無需耗費大量人力。在這些領域,必須確保人類的判斷能發揮作用,實現對武器的監督和指導。如果只有一個或少數幾個國家接受這些限制,意義是有限的。先進國家的政府應探討如何以可行的方式進行檢查,進而在此前提下實現相互制約。

人工智慧的引入,使人們可能為搶佔先機而將某種武器倉促投入使用,進而引發衝突。當一個國家擔心其對手正在發展自動化軍力時,可能會「先發制人」;而如果攻擊「成功」了,擔憂的合理性也就無法再得到證實或證偽。為防止衝突意外升級,大國應在一個可驗證的限制框架內進行競爭。談判不只包括緩和軍備競賽,還應該確保雙方都大致瞭解對方動向。但雙方都必須對一點有所預期(並據此進行籌畫):對方會對自己最具敏感性的秘密有所保留。正如冷戰期間的核武器談判所表明的,國家間永遠不會有完全的信任,但這並不意味著無法達成某種程度的諒解。

我們提出這些問題,是為了界定人工智慧給戰略帶來的挑戰。界定核時代的條約(以及隨之而來的溝通、執行和核查機制)給我們帶來了各方面的收益,但並非歷史的必然產物,而是人類能動性的產物,是共同承擔危機和責任的產物。

對民用和軍事技術的影響

傳統上,三個技術特性促成了軍事和民用領域的分野:技術差異、集中控制和影響規模。所謂技術差異,是指軍用和民用技術的區別。所謂集中控制,是指部分技術易於被政府管控,與容易傳播、規避政府控制的技術相反。所謂影響規模,則是指一項技術的破壞性潛力。

縱觀歷史,許多技術都是軍民兩用的。至於其他技術,一些很容易廣泛傳播,另一些則具有巨大的破壞力。然而,迄今為止,還沒有一種技術同時具備以下三種特性:軍民兩用、易於傳播和潛在的巨大破壞性。運送貨物到市場的鐵路和運送士兵到戰場的鐵路是一樣的,鐵路不具有破壞性潛力。核技術通常是軍民兩用的,且破壞性巨大,但核設施很複雜,這使政府能夠相對安全地控制核技術。獵槍可能被廣泛使用,同時具有軍民用途,但其有限的能力使持槍者無法在戰略層面造成破壞。

而人工智慧打破了這種範式。很明顯,人工智慧可以軍民兩用;也很容易傳播,只需幾行代碼,大多數演算法(除了部分例外)可以在單個電腦或小型網路上運行,這意味著政府很難通過控制基礎設施來控制這種技術;其應用具有巨大的破壞性潛力。這種獨一無二的特性組合,加上廣泛的利益相關者,產生了具有全新複雜性的戰略挑戰。

人工智慧賦能武器,使對手能以驚人的速度發起數位攻擊,並極大提高其利用數字漏洞的能力。這樣一來,對於即將到來的攻擊,一個國家可能還來不及評估就需立即回應,否則就可能被對方解除武裝。如果一個國家有相應手段,就可以在對方完全展開攻擊之前做出回應,構建一個人工智慧系統來預警攻擊並加以反擊。這一系統的存在,及其毫無預警地實施行動的能力,可能會刺激另一方投入更多建設和規劃,包括開發並行技術或基於不同演算法的技術。如果人類也參與了這些決定,那麼除非各方謹慎地發展出一個共同的限制理念,否則先發制人的衝動可能會壓倒謀定後動的需要,就像20世紀初的情況一樣。

在股票市場,一些複雜的所謂量化公司認識到,人工智慧演算法可以發現市場模式,並比最佳操盤手更快地做出反應。因此,這些公司已將其證券交易的部分控制權委託給演算法。演算法系統所贏得的利潤通常遠超人類操盤手。然而,它們偶爾會嚴重誤判,誤判程度遠超最糟糕的人為錯誤。

在金融領域,此類錯誤會毀掉投資,但不會致人死地。然而,在戰略領域,一次類似「閃電崩盤」的演算法故障可能引發災難性後果。如果數位領域的戰略防禦需要戰術上的進攻,那麼當一方在此類計算或行動上出錯時,就可能在不經意間使衝突升級。

將這些新能力納入一個明確的戰略和國際均勢概念的嘗試非常複雜,因為技術優勢所需的專業知識不再完全集中於政府方面。從傳統的政府承包商到個人發明家、企業家、初創企業和私人研究實驗室,各種各樣的行為體和機構都參與到對這一具有戰略意義的技術的塑造過程中,而並非其中所有人都認為其使命應與聯邦政府所界定的國家目標保持內在一致。工業界、學術界和政府之間的相互教育過程可以幫助彌合這一鴻溝,並確保各方在一個共同的概念框架內理解人工智慧戰略意義的關鍵原則。很少有哪個時代面臨過如此局面:一方面,其遭遇的戰略和技術挑戰如此複雜;另一方面,對該挑戰的性質乃至討論其所需的詞彙卻鮮有共識。

核時代尚未解決的挑戰是:人類發展了一種技術,戰略家們卻找不到可行的軍事行動理論。人工智慧時代的困境與之不同:典型技術將被廣泛獲取、掌握和應用。無論是在理論概念上還是在實踐操作中,實現相互間的戰略克制,甚至是實現對「克制」的共同定義,都將空前地困難。

即使歷經半個世紀的努力,如今對核武器的管控仍不盡完善。然而,評估核平衡其實相對簡單:核彈頭可以計數,其生產也是已知的。人工智慧則不同:其能力不是固定的,而是動態變化的。與核武器不同的是,人工智慧很難被追查:一旦經過訓練,它們可以被輕易複製,並在相對較小的機器上運行。以目前的技術,對其存在進行證實或證偽,將是極其困難甚至無法實現的。在這個時代,威懾可能來自一種複雜性——來自人工智慧攻擊能夠借助載體的多樣性,也來自潛在的人工智慧反應速度。

為了管控人工智慧,戰略家必須考慮如何將其納入負責任的國際關係模式。在部署武器之前,戰略家必須瞭解使用武器的反覆運算效應、這些武器導致衝突升級的可能性和謀求衝突降級的途徑。負責任地使用策略,再輔以制約原則,將是必不可少的舉措。決策者應致力於同時處理軍備、防禦技術和戰略,以及軍備控制問題,而不是將其視為在時間上前後不同、在功能上彼此對立的步驟。必須在技術付諸使用前就制定理論並做出決定。

那麼,這種制約的要求是什麼呢?一個顯見的出發點就是以傳統強制方式對能力加以制約。在冷戰期間,這種做法獲得了一些進展,至少在象徵意義上如此。一些能力受到了限制(如彈頭),另一些(如中程飛彈)則被徹底禁止。但無論是限制人工智慧的潛在能力,還是限制人工智慧的數量,都不能完全符合這種技術在民用領域的廣泛應用和持續發展態勢。我們必須研究新的限制因素,重點是人工智慧的學習和目標鎖定能力。

在一項部分預見到這一挑戰的決定中,美國對「人工智慧賦能武器」和「人工智慧武器」進行了劃分,前者使人類指揮的戰爭更精確、更致命、更有效,後者則能脫離人類操作者自主做出致命的決定。美國已宣佈其目標是將人工智慧使用限制在前一種類別中,並謀求建立一個任何國家(包括美國自身)都不擁有後一種武器的世界。這種劃分稱得上明智。與此同時,技術的學習和演進能力也可能導致對某些特定能力的限制不足。對人工智慧賦能武器的制約性質和制約方式進行界定,並確保約束是相互的,是關鍵所在。

在19世紀和20世紀,各國逐漸對某些形式的戰爭進行了限制(例如使用化學武器、攻擊平民)。鑒於人工智慧武器使大量新類別的軍事活動成為可能,或使舊形式的軍事活動重獲新生,世界各國必須及時界定,何種軍事行為有可能背離人性尊嚴和道德責任。要獲得安全,我們就不能只是被動應對,而要未雨綢繆。

與人工智慧相關的武器技術帶來了這樣的困境:對國家而言,技術的持續研發至關重要,否則我們將失去商業競爭力和與世界的關聯性;但新技術所固有的擴散天性使迄今一切以談判促限制的努力付諸東流,甚至連概念也未能形成。

新世界中的古老追求

各個主要的技術先進國家都需要明白,它們正處於戰略轉型的門檻上,這種轉型與當年核武器的出現同等重要,但影響將更加多樣化、分散化和不可預測。如果一個社會致力於擴展人工智慧前沿,就應當成立一個國家層面的機構,來考量人工智慧的防禦和安全,並在各個相關部門之間建立橋樑。這個機構應被賦予兩項職能:維持本國的競爭力,同時協調研究如何防止或至少限制不必要的衝突升級或危機。在此基礎上,與盟友和對手進行某種形式的談判將是至關重要的。

如果要對這一方向進行探索,那麼世界兩大人工智慧強國——美國和中國——就必須接受這一現實。兩國可能會得出這樣的結論:無論兩國新一階段的競爭將以何種形式展開,都應就「不打前沿技術戰爭」形成共識。雙方政府可以委託某個團隊或高級官員負責監督,並直接向領導人報告潛在的危險及規避方式。截至本書撰寫時,這種努力與兩國的公眾情緒並不相符。然而,這兩個大國互相對峙而拒不進行對話的時間越長,發生意外的可能性就越大。一旦發生意外,雙方都會被其技術和部署預案所驅使,陷入雙方都不願意看到的危機,甚至可能引發全球規模的軍事衝突。

國際體系的矛盾之處在於,每個大國都被驅使採取行動,也必須採取行動,從而最大限度地保障自身的安全;然而,為了避免危機接踵而來,每個國家都必須對維持普遍和平有一定的責任感。這個過程涉及對限制的認識。軍事規劃人員或安全官員會根據可能發生的最壞情況考慮問題(這樣做並沒錯),並優先尋求獲取應對這些情況所需的能力。政治家(可能也就是上述這批人)則有義務考慮如何使用這些能力,以及使用之後的世界將會是什麼樣子。

在人工智慧時代,我們應該對長期以來的戰略邏輯進行調整。在災難真正發生之前,我們需要克服,或者至少是遏制這種自動化的驅向。我們必須防止運行速度比人類決策者更快的人工智慧做出一些具有戰略後果的、不可挽回的行為。防禦力量自動化的前提是不放棄人類控制。該領域固有的模糊性,再加上人工智慧的動態性、突出性及其傳播的便利性,將使評估複雜化。在此前的時代,只有少數幾個大國或超級大國有責任限制自己的破壞性能力,以避免發生災難。但不久後,隨著人工智慧技術的擴散,更多的行為體也必須承擔類似的使命。

當代領導人可以通過將常規能力、核能力、網路能力和人工智慧能力廣泛而動態地結合在一起,來實現控制武器裝備的六大任務。

第一,相互對抗或敵對的國家的領導人必須定期對話,討論雙方都想避免的戰爭形式,就像美蘇在冷戰期間所做的那樣。為此,美國及其盟友應該圍繞其共同的、固有的、不可侵犯的利益與價值觀組織起來,這些利益和價值觀包括在冷戰結束後幾代人的經驗。

必須對核戰略的未解難題給予新的關注,並認識到其本質正是人類在戰略、技術和道德方面遭遇的巨大挑戰之一。幾十年來,對廣島和長崎被核彈化為焦土的記憶迫使人們認識到核問題的不尋常性和嚴峻程度。正如美國前國務卿喬治·舒爾茨在2018年對國會所說:「我擔心人們已經失去了那種恐懼感。」擁核國家的領導人必須認識到,他們有責任共同努力,以防止災難的發生。

網路與人工智慧技術的領先大國應該努力界定其理論和限制(即使其所有方面均未被公開),並找出自身理論與競爭大國之間的關聯點。如果我們的意圖是威懾而非使用,是和平而非衝突,是有限衝突而非普遍衝突,就需要以反映網路和人工智慧獨特蘊含的措辭來重新理解和界定這些術語。

擁核國家應承諾對其指揮控制系統和早期預警系統進行內部檢查。這類失效保護檢查應確定檢查步驟,以加強對網路威脅和在未經授權、疏忽或意外情況下使用大規模毀滅性武器行為的防範。這些檢查還應包括選項,以排除對核指揮控制系統或早期預警系統相關設施的網路攻擊。

世界各國,特別是技術強國,應制定強有力和可接受的方法,在緊張局勢加劇和極端情況下儘量延長決策時間。這應該成為競爭對手之間共同的概念性目標,將控制不穩定性和建立共同安全所需的步驟(既有當前的,也有長期的)聯繫起來。在危機中,人類必須對是否使用先進武器承擔最終責任。競爭對手尤其應該努力就一種機制達成一致,以確保那些或許不可撤銷的決定是有利於人類生存的。

主要的人工智慧大國應該考慮如何限制軍事化人工智慧的繼續擴散,或者依靠外交手段與武力威脅,開展系統性的防擴散工作。那些野心勃勃地想要將技術用於不可接受的破壞性目的的技術收購者會是誰?有哪些特定的人工智慧武器值得我們特別關注?誰來確保這條紅線不被逾越?老牌的核大國探索過這種防核擴散概念,結果成敗參半。如果一種具有顛覆性和潛在破壞性的新技術被用於武裝世界上懷有最強烈敵意或道德上最不受約束政府的軍隊,那麼戰略均勢可能難以實現,衝突也可能無法控制。

由於大多數人工智慧技術具有軍民兩用特性,我們有責任在這場技術研發競賽中保持領先。但這也同樣迫使我們去理解人工智慧技術的局限性。等到危機來臨才開始討論這些問題就為時已晚了。一旦在軍事衝突中使用,人工智慧技術的回應速度之快,幾乎註定它將以比外交手段更快的速度產生結果。大國之間必須就網路和人工智慧武器展開討論,哪怕只是為了形成一套共同的戰略概念話語,以及對彼此紅線的感知。要在最具破壞性的能力上實現相互制約,絕不能等到悲劇發生再去亡羊補牢。當人類開始在創造新的、不斷演化的、擁有智慧的武器方面展開競爭時,設限的失敗不會被歷史原諒。在人工智慧時代,對國家優勢的持久追求,仍須以捍衛人類倫理為前提。

連結:基辛格:一切与数字网络相连的地方,都将成为新的“战场”-亨利·基辛格 (guancha.cn)