未來戰(zhàn)爭(zhēng)——人工智能如何改變戰(zhàn)爭(zhēng)規(guī)則
AI進(jìn)入軍事的必然趨勢(shì)
當(dāng)今的軍事環(huán)境,已經(jīng)遠(yuǎn)遠(yuǎn)超越了傳統(tǒng)的“鋼鐵與火藥”的對(duì)抗。網(wǎng)絡(luò)攻擊、電磁干擾與動(dòng)能打擊交織在一起,構(gòu)成了一個(gè)高度復(fù)雜的作戰(zhàn)生態(tài)。敵手可能在毫秒之間切換戰(zhàn)術(shù),從網(wǎng)絡(luò)滲透到電子壓制,再到無人機(jī)群的突襲。這種多維度的威脅格局,迫使各國防務(wù)體系必須尋找新的技術(shù)手段來保持優(yōu)勢(shì)。
人工智能正是在這樣的背景下被推向前臺(tái)。它已經(jīng)在軍事中展現(xiàn)出強(qiáng)大的應(yīng)用潛力,通過傳感器融合,AI 能夠在海量數(shù)據(jù)中快速提煉出關(guān)鍵情報(bào);在威脅識(shí)別中,AI 可以比人類更快地發(fā)現(xiàn)潛在目標(biāo);在作戰(zhàn)方案生成上,AI 則能在短時(shí)間內(nèi)模擬多種戰(zhàn)術(shù)路徑,為指揮官提供決策參考。速度、精度與規(guī)模,成為 AI在軍事中的三大優(yōu)勢(shì)。
AI 的引入并非沒有風(fēng)險(xiǎn)。將其嵌入指揮控制鏈,意味著一旦模型脆弱或推理過程不透明,可能導(dǎo)致錯(cuò)誤決策;信任錯(cuò)配則可能讓人類過度依賴或過度懷疑 AI;責(zé)任缺口更是一個(gè)敏感問題——當(dāng)AI 的建議導(dǎo)致誤判或違反國際法時(shí),究竟由誰承擔(dān)后果?這些問題讓“AI 軍事化”不僅是技術(shù)挑戰(zhàn),更是倫理與法律的考驗(yàn)。
正因如此,這個(gè)領(lǐng)域的研究者們提出了一個(gè)新的視角:不再把人機(jī)團(tuán)隊(duì)看作一個(gè)“整體代理”,而是深入到其內(nèi)部動(dòng)態(tài),去理解人類與 AI 如何在協(xié)作中不斷學(xué)習(xí)、適應(yīng)與調(diào)整。只有這樣,才能真正構(gòu)建一個(gè)可信、可控、可問責(zé)的軍事人機(jī)協(xié)作體系。
本研究團(tuán)隊(duì)體現(xiàn)了技術(shù)與軍事的跨學(xué)科的特征,Clara Maathuis 來自荷蘭開放大學(xué),長期關(guān)注人機(jī)交互與可信 AI 的倫理與責(zé)任問題;而Kasper Cools 則同時(shí)隸屬于比利時(shí)皇家軍事學(xué)院與布魯塞爾自由大學(xué),兼具軍事戰(zhàn)略與學(xué)術(shù)研究的雙重背景。這樣的組合,使得研究既有技術(shù)與建模的嚴(yán)謹(jǐn)性,又能貼近軍事應(yīng)用的實(shí)際需求。
1.相關(guān)研究與學(xué)術(shù)背景
在人機(jī)協(xié)作的探索上,民用領(lǐng)域已經(jīng)走在前列。醫(yī)療診斷中,放射科醫(yī)生與 AI 影像識(shí)別系統(tǒng)協(xié)作,能夠顯著提升癌癥檢測(cè)的準(zhǔn)確率;制造業(yè)里,工人與協(xié)作機(jī)器人(cobots)并肩作業(yè),優(yōu)化生產(chǎn)流程并提升安全性;在創(chuàng)意產(chǎn)業(yè),設(shè)計(jì)師與生成式 AI 工具共同創(chuàng)作,拓展了藝術(shù)與設(shè)計(jì)的邊界。這些案例證明,人機(jī)協(xié)作并非科幻,而是現(xiàn)實(shí)中切實(shí)可行的生產(chǎn)力工具。
在軍事領(lǐng)域,AI 的應(yīng)用也在不斷推進(jìn)。它被用于戰(zhàn)場(chǎng)數(shù)據(jù)分析,幫助指揮官在復(fù)雜環(huán)境中快速提煉信息;在戰(zhàn)術(shù)決策支持中,AI 能夠提供多方案推演,輔助人類評(píng)估風(fēng)險(xiǎn)與收益。美國陸軍等機(jī)構(gòu)甚至將“人機(jī)共學(xué)”列為未來關(guān)鍵研究方向,強(qiáng)調(diào) AI 不僅要“幫人”,更要與人類形成動(dòng)態(tài)的學(xué)習(xí)與適應(yīng)關(guān)系。
但現(xiàn)有研究仍存在明顯不足。多數(shù)研究停留在外部視角,把人機(jī)團(tuán)隊(duì)當(dāng)作一個(gè)整體來評(píng)估,而缺乏對(duì)內(nèi)部共學(xué)過程的細(xì)致刻畫。信任與自治的管理機(jī)制尚不成熟,往往采用靜態(tài)的自治水平設(shè)定,難以應(yīng)對(duì)戰(zhàn)場(chǎng)上瞬息萬變的環(huán)境。結(jié)果就是,AI 要么被過度依賴,要么被過度限制,無法發(fā)揮最佳效能。
因此,學(xué)術(shù)界與軍事實(shí)踐者都在呼吁,需要新的方法論框架,能夠動(dòng)態(tài)地捕捉人機(jī)之間的學(xué)習(xí)、反饋與信任校準(zhǔn)過程。只有這樣,才能真正實(shí)現(xiàn)“可信的人機(jī)協(xié)作”,讓 AI 成為戰(zhàn)場(chǎng)上的可靠隊(duì)友,而不是潛在風(fēng)險(xiǎn)源。
2.研究方法與建模思路
在這項(xiàng)研究中,技術(shù)團(tuán)隊(duì)并沒有滿足于提出一個(gè)抽象的概念框架,而是選擇了一條更為嚴(yán)謹(jǐn)?shù)穆窂健ㄟ^科學(xué)的方法論與建模工具,將“人機(jī)共學(xué)”這一復(fù)雜過程具象化、可驗(yàn)證化。
首先,研究采用了設(shè)計(jì)科學(xué)研究(Design Science Research, DSR)方法論。與傳統(tǒng)的實(shí)證研究不同,DSR更強(qiáng)調(diào)“構(gòu)建與評(píng)估”——它要求研究者不僅要提出理論假設(shè),還要?jiǎng)?chuàng)造出一個(gè)可操作的“人工制品”(artifact),并通過實(shí)驗(yàn)或模擬來驗(yàn)證其有效性。
在軍事人機(jī)協(xié)作的語境下,這意味著研究團(tuán)隊(duì)不僅要討論“人機(jī)共學(xué)”的必要性,還要真正設(shè)計(jì)出一個(gè)能夠運(yùn)行的模型,去捕捉人類與 AI 在任務(wù)執(zhí)行中如何相互學(xué)習(xí)、相互調(diào)整。
為了實(shí)現(xiàn)這一目標(biāo),研究者選擇了系統(tǒng)動(dòng)力學(xué)(System Dynamics, SD)作為建模工具。SD 的優(yōu)勢(shì)在于,它能夠通過“存量(stocks)”與“流量(flows)”的形式,刻畫系統(tǒng)中各要素的積累與變化,并通過反饋回路展現(xiàn)復(fù)雜系統(tǒng)的動(dòng)態(tài)演化。
軍事行動(dòng)中的人機(jī)協(xié)作,恰恰是一個(gè)充滿非線性關(guān)系、時(shí)間延遲與多重反饋的復(fù)雜系統(tǒng):信任的建立與崩塌并非線性過程,自治權(quán)的授予與收回往往滯后于環(huán)境變化,而認(rèn)知負(fù)荷的積累更可能在某個(gè)臨界點(diǎn)突然引發(fā)系統(tǒng)性風(fēng)險(xiǎn)。SD 的建模能力,正好契合了這種復(fù)雜性。
在模型構(gòu)建中,研究團(tuán)隊(duì)特別強(qiáng)調(diào)了幾個(gè)關(guān)鍵特征:
- 反饋回路的作用:例如,當(dāng) AI 的解釋質(zhì)量提升時(shí),人類的學(xué)習(xí)速度也會(huì)加快,進(jìn)而反過來提升 AI 的表現(xiàn),這就是一個(gè)典型的正向強(qiáng)化回路。
- 非線性關(guān)系的捕捉:信任并不是隨著 AI 表現(xiàn)線性增長的,它可能在某個(gè)閾值后迅速上升,也可能因一次錯(cuò)誤而驟然下降。
- 時(shí)間延遲的影響:戰(zhàn)場(chǎng)環(huán)境的變化往往比人機(jī)團(tuán)隊(duì)的適應(yīng)速度更快,這種延遲可能導(dǎo)致自治權(quán)的調(diào)整滯后,從而帶來風(fēng)險(xiǎn)。
最終,研究的目標(biāo)是構(gòu)建一個(gè)能夠體現(xiàn)人機(jī)共學(xué)(co-learning)的動(dòng)態(tài)模型。這個(gè)模型不僅要能模擬人類與 AI 在軍事任務(wù)中的互動(dòng),還要揭示其中的關(guān)鍵變量如何相互作用:人類專長如何影響 AI 的學(xué)習(xí),AI 的解釋如何塑造人類的信任,共享態(tài)勢(shì)感知如何推動(dòng)自治權(quán)的調(diào)整,認(rèn)知負(fù)荷如何觸發(fā)安全機(jī)制。
通過這樣的建模,研究者希望為未來的軍事 AI 系統(tǒng)提供一個(gè)可驗(yàn)證的理論與實(shí)踐基礎(chǔ),讓“人機(jī)共學(xué)”不再停留在概念層面,而成為可以被量化、被優(yōu)化的作戰(zhàn)能力。
換句話說,這一部分的研究方法與建模思路,正是研究的“工程核心”。它讓抽象的“人機(jī)協(xié)作學(xué)習(xí)”變成了一個(gè)可以被實(shí)驗(yàn)、被推演、甚至被軍事組織采納的動(dòng)態(tài)框架。
3.模型設(shè)計(jì):四大核心維度
研究團(tuán)隊(duì)提出了一個(gè)由四個(gè)維度構(gòu)成的人機(jī)共學(xué)模型。這四個(gè)維度并非孤立存在,而是通過復(fù)雜的反饋回路彼此交織,構(gòu)成了一個(gè)動(dòng)態(tài)的、可演化的系統(tǒng)。它們共同回答了一個(gè)關(guān)鍵問題——在瞬息萬變的軍事環(huán)境中,人類與 AI 如何才能真正形成一個(gè)可信賴的作戰(zhàn)團(tuán)隊(duì)。

圖1:模型組件。
可調(diào)自治(Adjustable Autonomy)
在傳統(tǒng)的軍事 AI 應(yīng)用中,自治水平往往是靜態(tài)設(shè)定的,要么完全依賴人類指揮,要么在特定任務(wù)中放任AI 自主。但戰(zhàn)場(chǎng)環(huán)境并不會(huì)給出如此穩(wěn)定的條件。研究者提出的“可調(diào)自治”機(jī)制,強(qiáng)調(diào) AI 的自治水平應(yīng)當(dāng)隨著任務(wù)狀態(tài)、信任度以及環(huán)境不確定性而動(dòng)態(tài)調(diào)整。
比如,當(dāng)戰(zhàn)場(chǎng)態(tài)勢(shì)清晰、AI 表現(xiàn)穩(wěn)定時(shí),可以適度提升其自治權(quán);而在環(huán)境波動(dòng)劇烈或信任度下降時(shí),則應(yīng)迅速收回權(quán)限。這一機(jī)制通過“自治平衡回路(B1)”和“認(rèn)知負(fù)荷安全回路(B3)”來實(shí)現(xiàn):前者確保自治權(quán)不會(huì)在不確定性下失控,后者則在認(rèn)知負(fù)荷過高時(shí)自動(dòng)降低自治,以保護(hù)人類決策者的安全邊界。
多層控制(Multi-layered Control)
軍事行動(dòng)的高風(fēng)險(xiǎn)性決定了任何 AI 的決策都不能缺乏監(jiān)督。多層控制機(jī)制的設(shè)計(jì),正是為了讓人類與 AI 在不同層級(jí)上相互監(jiān)督與問責(zé)。它不僅包括人類對(duì) AI 的監(jiān)控,也包括 AI 對(duì)人類操作的提醒與校正,從而形成雙向的安全網(wǎng)。
隨著 AI 自治水平的提升,監(jiān)督與問責(zé)的需求也會(huì)同步增加,這就是“監(jiān)督與問責(zé)回路(B2)”的作用所在。它保證了透明度與責(zé)任鏈條的完整性,避免了“黑箱式”決策在高風(fēng)險(xiǎn)環(huán)境中帶來的不可控后果。
雙向反饋(Bidirectional Feedback)
真正的人機(jī)共學(xué),不是單向的“AI 學(xué)人”或“人學(xué) AI”,而是雙向的知識(shí)與經(jīng)驗(yàn)交換。在這一維度中,AI 需要能夠解釋自己的推理過程、表達(dá)不確定性,而人類則通過標(biāo)注、經(jīng)驗(yàn)輸入和情境判斷來反哺 AI。這種互動(dòng)不僅提升了雙方的理解,還能逐步形成共享的心理模型。
研究團(tuán)隊(duì)將其歸納為兩個(gè)關(guān)鍵反饋回路:一是“共學(xué)強(qiáng)化回路(R1)”,強(qiáng)調(diào)解釋質(zhì)量越高,學(xué)習(xí)速度越快;二是“性能-信任強(qiáng)化回路(R2)”,當(dāng) AI 表現(xiàn)超出預(yù)期時(shí),信任度提升,進(jìn)而推動(dòng)更高水平的協(xié)作。
協(xié)作決策(Collaborative Decision-Making)
在最終的決策環(huán)節(jié),人類與 AI 不再是“主從關(guān)系”,而是共同生成、評(píng)估并提出決策方案。每一個(gè)方案都附帶置信度與理由,既讓人類能夠理解 AI 的邏輯,也讓 AI 能夠吸收人類的判斷。這一機(jī)制通過 R1、R2 與 B3 三個(gè)回路共同作用:解釋與學(xué)習(xí)的強(qiáng)化推動(dòng)更高質(zhì)量的決策,信任與性能的提升讓協(xié)作更順暢,而認(rèn)知負(fù)荷的安全機(jī)制則確保人類不會(huì)在高壓環(huán)境下被信息淹沒。
整體來看,這四大維度構(gòu)成了一個(gè)有機(jī)整體:自治水平的調(diào)整決定了 AI 的行動(dòng)邊界,多層控制確保了透明與問責(zé),雙向反饋推動(dòng)了共學(xué)與信任,而協(xié)作決策則是最終的落點(diǎn),讓人機(jī)團(tuán)隊(duì)能夠在復(fù)雜戰(zhàn)場(chǎng)中做出既高效又合法的判斷。它們共同描繪出一個(gè)未來的軍事圖景:AI 不再是冷冰冰的工具,而是一個(gè)能夠與人類并肩作戰(zhàn)、共同成長的“智能戰(zhàn)友”。
4.案例研究:比例性評(píng)估(Proportionality Assessment)
為了驗(yàn)證這一人機(jī)共學(xué)模型的有效性,研究團(tuán)隊(duì)選擇了一個(gè)極具代表性的軍事任務(wù)——比例性評(píng)估。所謂比例性評(píng)估,是國際法框架下軍事行動(dòng)必須遵循的原則之一:在執(zhí)行打擊時(shí),預(yù)期的軍事優(yōu)勢(shì)必須與可能造成的附帶損害相權(quán)衡,確保行動(dòng)在法律與倫理上都站得住腳。
在他們?cè)O(shè)定的場(chǎng)景中,一支聯(lián)合部隊(duì)計(jì)劃對(duì)敵方的綜合防空網(wǎng)絡(luò)實(shí)施一次網(wǎng)絡(luò)-動(dòng)能聯(lián)合打擊。目標(biāo)是通過遠(yuǎn)程零日漏洞攻擊,暫時(shí)癱瘓敵方的指揮控制服務(wù)器,從而為有人機(jī)群突破空域創(chuàng)造一個(gè)六十分鐘的窗口。

圖2:比例評(píng)估用例模擬。
問題在于,這一防空網(wǎng)絡(luò)位于一座沿海城市,而城市基礎(chǔ)設(shè)施同時(shí)服務(wù)于軍事與民用系統(tǒng)。換句話說,任何攻擊都可能波及醫(yī)院的遙測(cè)系統(tǒng)或港口的交通控制,帶來嚴(yán)重的附帶損害。這種高度城市化的環(huán)境,使得環(huán)境不確定性被設(shè)定為Oenv=0.35,屬于高風(fēng)險(xiǎn)狀態(tài)。
在仿真初始條件下,人類操作員的專長水平為H=0.50,AI 的能力為 A=0.40。共享態(tài)勢(shì)感知較低,僅為 S=0.25,信任度也處于謹(jǐn)慎狀態(tài) T=0.40,AI 的自治水平被嚴(yán)格限制在 U=0.20。這意味著在一開始,人機(jī)團(tuán)隊(duì)的協(xié)作基礎(chǔ)并不牢固,更多依賴人類的判斷與監(jiān)督。

圖3:比例評(píng)估用例模擬。
隨著任務(wù)推進(jìn),前 30 分鐘的仿真結(jié)果顯示出積極的趨勢(shì)。通過雙向反饋機(jī)制,人類與 AI 的能力都在提升,態(tài)勢(shì)感知逐漸對(duì)齊,信任度也隨之上升。自治水平在謹(jǐn)慎的框架下逐步提高,而認(rèn)知負(fù)荷始終保持在安全閾值之下。在這一階段,比例性評(píng)估的得分保持為正,意味著軍事優(yōu)勢(shì)與附帶損害之間的平衡尚在可接受范圍內(nèi)。
然而隨著環(huán)境波動(dòng)的加劇,系統(tǒng)的脆弱性逐漸顯現(xiàn)。高不確定性導(dǎo)致信任度迅速崩潰,而監(jiān)督機(jī)制的反應(yīng)速度卻滯后于這種變化。結(jié)果是自治水平驟降,AI 的作用被大幅削弱。由于軍事優(yōu)勢(shì)部分依賴于 AI 的自治與快速響應(yīng),這一驟降直接導(dǎo)致優(yōu)勢(shì)下滑。
同時(shí),盡管自治收縮在一定程度上抑制了附帶損害的擴(kuò)大,但比例性得分仍然在大部分時(shí)間內(nèi)跌入負(fù)值。最終,仿真顯示比例性得分僅在44% 的任務(wù)窗口內(nèi)保持為正,未能滿足合法性與作戰(zhàn)有效性的雙重標(biāo)準(zhǔn)。
這一案例的結(jié)論耐人尋味。模型成功再現(xiàn)了軍事學(xué)說中的預(yù)期行為,在不確定性升高時(shí),自治會(huì)自動(dòng)收縮,認(rèn)知負(fù)荷保護(hù)機(jī)制會(huì)啟動(dòng),以避免人類決策者被壓垮。但同時(shí),它也揭示了人機(jī)協(xié)作的脆弱性——信任的崩潰往往比監(jiān)督機(jī)制更快,導(dǎo)致自治驟降與軍事優(yōu)勢(shì)喪失。換句話說,人機(jī)共學(xué)模型雖然能夠在穩(wěn)定環(huán)境下維持平衡,但在高風(fēng)險(xiǎn)的城市化戰(zhàn)場(chǎng)中,這種平衡極易被打破。
這不僅是對(duì)模型的驗(yàn)證,更是對(duì)未來軍事 AI 系統(tǒng)設(shè)計(jì)的警示,如果不能在實(shí)時(shí)風(fēng)險(xiǎn)輸入、信任校準(zhǔn)與自治調(diào)整之間找到更穩(wěn)健的機(jī)制,那么 AI 在戰(zhàn)場(chǎng)上的角色仍然可能從“可靠隊(duì)友”滑向“潛在負(fù)擔(dān)”。
5.研究結(jié)論與未來展望
這項(xiàng)研究的最大貢獻(xiàn),在于提出了一個(gè)可信的人機(jī)共學(xué)模型。它并不是停留在概念層面的空談,而是通過系統(tǒng)動(dòng)力學(xué)的方式,將自治、監(jiān)督、反饋與協(xié)作決策四個(gè)維度有機(jī)結(jié)合,構(gòu)建出一個(gè)可操作的框架。這個(gè)模型不僅能夠模擬人類與 AI 在軍事任務(wù)中的互動(dòng),還兼顧了技術(shù)與法律責(zé)任的雙重要求,避免了“技術(shù)萬能論”帶來的盲點(diǎn)。
從應(yīng)用價(jià)值來看,這一模型為未來軍事 AI 系統(tǒng)的設(shè)計(jì)提供了理論與實(shí)踐的參考。它強(qiáng)調(diào) AI 在戰(zhàn)場(chǎng)上應(yīng)當(dāng)被視為“隊(duì)友”,而不是替代者。AI 的角色是與人類并肩作戰(zhàn),提供數(shù)據(jù)處理與模式識(shí)別的優(yōu)勢(shì),同時(shí)接受人類在倫理判斷與創(chuàng)造性思維上的補(bǔ)充。這樣的定位,既能發(fā)揮 AI 的長處,又能避免因過度依賴而帶來的風(fēng)險(xiǎn)。
研究團(tuán)隊(duì)也提出了幾個(gè)值得關(guān)注的方向。首先是引入實(shí)時(shí)風(fēng)險(xiǎn)數(shù)據(jù)流,讓模型能夠在動(dòng)態(tài)環(huán)境中更快地調(diào)整自治與信任水平。其次是嵌入隨機(jī)化的附帶損害估算器,使比例性評(píng)估更貼近現(xiàn)實(shí)中的不確定性。最后是在多樣化的軍事場(chǎng)景中進(jìn)行驗(yàn)證,確保模型不僅適用于單一案例,而是能夠推廣到更廣泛的作戰(zhàn)環(huán)境中。換句話說,這一研究為未來的軍事 AI 系統(tǒng)奠定了基礎(chǔ),但仍需要不斷迭代與擴(kuò)展。
6.評(píng)論與啟示
我們認(rèn)為,這項(xiàng)研究傳遞了一個(gè)重要信號(hào),AI 在軍事中的應(yīng)用不能再是單向的“人用 AI 工具”,而必須轉(zhuǎn)向“人機(jī)共學(xué)”的關(guān)系。只有當(dāng) AI 能夠解釋自身的推理,人類能夠理解并反饋,雙方才能形成真正的協(xié)作閉環(huán)。這種共學(xué)關(guān)系,才是未來軍事 AI 系統(tǒng)的核心競(jìng)爭(zhēng)力。
從政策層面來看,信任與責(zé)任機(jī)制是決定軍事 AI 能否被采納的關(guān)鍵。沒有透明的解釋機(jī)制,信任就無法建立;沒有清晰的責(zé)任鏈條,AI 的應(yīng)用就會(huì)陷入法律與倫理的灰色地帶。研究中的多層控制與監(jiān)督機(jī)制,正是為了解決這一問題。它提醒我們,技術(shù)設(shè)計(jì)必須與政策規(guī)范同步推進(jìn)。
從戰(zhàn)略層面來看,未來戰(zhàn)爭(zhēng)的競(jìng)爭(zhēng)力不僅取決于 AI 算法的性能,更取決于人機(jī)協(xié)作的質(zhì)量。一個(gè)國家如果能夠在戰(zhàn)場(chǎng)上實(shí)現(xiàn)高效、可信的人機(jī)共學(xué),就能在復(fù)雜多變的環(huán)境中保持優(yōu)勢(shì)。反之,即便擁有最先進(jìn)的算法,如果缺乏信任與協(xié)作機(jī)制,也可能在關(guān)鍵時(shí)刻失去主動(dòng)權(quán)。
因此,這項(xiàng)研究不僅是對(duì)軍事 AI 技術(shù)的探索,更是對(duì)未來戰(zhàn)爭(zhēng)形態(tài)的前瞻。它告訴我們,真正的智能戰(zhàn)爭(zhēng),不是 AI 取代人類,而是人類與 AI 在共學(xué)中共同成長。
參考資料:???https://arxiv.org/abs/2510.01815v1??
本文轉(zhuǎn)載自???波動(dòng)智能???,作者:FlerkenS?

















