美軍無(wú)人機(jī)蜂群的新大腦:ChatGPT
本周三,OpenAI宣布與美國(guó)國(guó)防技術(shù)公司Anduril Industries合作,利用其先進(jìn)的AI模型,為美軍無(wú)人機(jī)蜂群提供“新大腦”。這標(biāo)志著生成是生成式人工智能的標(biāo)桿產(chǎn)品——ChatGPT正式邁上了武器化道路。

這項(xiàng)合作旨在開(kāi)發(fā)AI模型,以處理大量實(shí)時(shí)數(shù)據(jù),減輕人類(lèi)操作員的工作負(fù)擔(dān),并提高戰(zhàn)場(chǎng)態(tài)勢(shì)感知能力。Anduril的聲明指出,這些AI模型將被用于無(wú)人機(jī)反制系統(tǒng)(CUAS),幫助抵御無(wú)人機(jī)攻擊以及“有人駕駛平臺(tái)”的威脅,例如傳統(tǒng)的軍用飛機(jī)。
Anduril由Oculus創(chuàng)始人帕爾默·拉奇(Palmer Luckey)于2017年創(chuàng)立,專(zhuān)注于AI賦能的防御技術(shù)。該公司已推出一系列用于殺傷性作戰(zhàn)的產(chǎn)品,包括AI驅(qū)動(dòng)的“刺客無(wú)人機(jī)”和導(dǎo)彈推進(jìn)系統(tǒng)。雖然目前這些系統(tǒng)的致命決策仍需由人類(lèi)操作員作出,但其自主能力可以通過(guò)未來(lái)升級(jí)得到強(qiáng)化。
OpenAI首席執(zhí)行官薩姆·阿爾特曼(Sam Altman)表示:“與Anduril的合作將確保OpenAI技術(shù)保護(hù)美國(guó)軍事人員,并幫助國(guó)家安全界以負(fù)責(zé)任的方式使用這一技術(shù),保障公民的安全與自由?!?/p>
現(xiàn)代戰(zhàn)爭(zhēng)的顛覆性技術(shù):智能化無(wú)人機(jī)蜂群
無(wú)人機(jī)蜂群的概念正成為現(xiàn)代戰(zhàn)爭(zhēng)的標(biāo)志性特征。五角大樓啟動(dòng)的“復(fù)制者計(jì)劃”(Replicator Program)計(jì)劃在兩年內(nèi)部署數(shù)千套自主系統(tǒng),而Anduril正是這一愿景的推動(dòng)者之一。這些無(wú)人機(jī)蜂群可以協(xié)同作戰(zhàn),靈活應(yīng)對(duì)復(fù)雜戰(zhàn)場(chǎng)環(huán)境,被視為改變未來(lái)戰(zhàn)爭(zhēng)規(guī)則的關(guān)鍵技術(shù)。
然而,這種技術(shù)的廣泛應(yīng)用也引發(fā)了關(guān)于倫理與安全的討論。OpenAI曾公開(kāi)反對(duì)將其技術(shù)用于軍事目的,但這次與Anduril的合作標(biāo)志著一個(gè)新的方向。面對(duì)利潤(rùn)豐厚的軍事市場(chǎng),科技公司正在重新評(píng)估自己的立場(chǎng)。
選擇殺入軍工行業(yè)的AI頂流企業(yè)不止OpenAI一家。安特羅匹公司(Anthropic)與Palantir合作處理政府機(jī)密數(shù)據(jù),Meta也將其Llama模型提供給國(guó)防合作伙伴。相比2018年谷歌員工因軍事合同問(wèn)題發(fā)起罷工的時(shí)代,今天的科技巨頭紛紛撕下道德面具,競(jìng)相爭(zhēng)奪五角大樓的云計(jì)算和AI合同。
盡管如此,將AI大模型(LLM)用于軍事系統(tǒng)仍存爭(zhēng)議。LLM以處理海量文本、圖像和音頻數(shù)據(jù)而聞名,但其“不可靠性”已廣為人知:它們可能生成錯(cuò)誤信息,甚至被利用進(jìn)行“提示注入”攻擊。這些技術(shù)缺陷在軍事場(chǎng)景中可能導(dǎo)致災(zāi)難性后果,例如錯(cuò)誤目標(biāo)分析或防御決策。
軍事AI的未來(lái):審慎前行還是大膽革新?
OpenAI與Anduril的合作不僅是技術(shù)革新的試驗(yàn)場(chǎng),也是美國(guó)國(guó)防科技戰(zhàn)略的風(fēng)向標(biāo)。AI賦能的無(wú)人機(jī)蜂群、反無(wú)人機(jī)系統(tǒng),以及未來(lái)可能的更多自主武器,正在重新定義戰(zhàn)爭(zhēng)規(guī)則。但在這一過(guò)程中,技術(shù)的可靠性、倫理邊界和監(jiān)管框架將是不可忽視的關(guān)鍵因素。
Anduril和OpenAI的聲明中提到,雙方將通過(guò)“技術(shù)驅(qū)動(dòng)的審慎協(xié)議”,確保AI在國(guó)家安全任務(wù)中的信任與問(wèn)責(zé)。這種“審慎”的立場(chǎng)表明,即便在追求技術(shù)突破時(shí),軍事AI應(yīng)用仍需高度監(jiān)管和責(zé)任界定。
然而,從無(wú)人機(jī)蜂群到基于LLM的目標(biāo)分析,AI在戰(zhàn)場(chǎng)上的角色正變得越來(lái)越復(fù)雜。假設(shè)未來(lái)的戰(zhàn)爭(zhēng)中,敵方利用視覺(jué)提示注入來(lái)干擾AI模型的判斷,可能會(huì)將軍事技術(shù)推向未知的邊界。
未來(lái),無(wú)論是戰(zhàn)場(chǎng)上的無(wú)人機(jī)蜂群,還是作戰(zhàn)室中的AI算法,都將成為全球關(guān)注的焦點(diǎn)。它們不僅是現(xiàn)代軍事技術(shù)顛覆性革命,更是科技與倫理的激勵(lì)碰撞。















 
 
 




 
 
 
 