編輯 | 伊風(fēng)
出品 | 51CTO技術(shù)棧(微信號:blog51cto)
“以后用 Copilot 寫的代碼都不能提交了?”
最近,開源虛擬化項目 QEMU 正式通過了一項新政策,在開發(fā)者社區(qū)引發(fā)強(qiáng)烈震動。
圖片
由 Red Hat 主導(dǎo)的這一重量級項目明確表示:
將拒絕一切由 AI 工具生成,或被懷疑由 AI 工具生成的代碼提交。
GitHub Copilot、ChatGPT、Claude、Code Llama 等主流工具,全被點(diǎn)名封殺。
圖片
這個決定很快點(diǎn)燃了評論區(qū)——一位充滿反骨的開發(fā)者直接開噴,并表示“將來投稿一定要用LLM”:
“你根本不可能分辨代碼是不是用 LLM 寫的,所以這項政策毫無意義。你要怎么證明?難道你要叫“網(wǎng)絡(luò)警察”來抓我?這就跟禁止“復(fù)制粘貼 Stack Overflow 的代碼并稍作編輯”差不多荒唐?!?/p>
這番發(fā)言很快被群嘲——不僅被一百多人踩,還被網(wǎng)友扒出從 2012 年到 2025 年只提交過四次代碼的“戰(zhàn)績”。
圖片
AI 編程已經(jīng)卷入無數(shù)開發(fā)者的日常,許多初學(xué)者甚至從第一行代碼就開始用 Copilot 輔助。
為什么不少開發(fā)者還是支持“封殺”AI編程?
禁用 AI 工具,真的是開源世界的下一場大趨勢嗎?
1.QEMU 官方表態(tài):AI 代碼的法律歸屬仍屬灰色地帶
這項新政策由 Red Hat 虛擬化大佬 Daniel P. Berrangé 起草。他是 QEMU 和 libvirt 項目的核心維護(hù)者之一。
Berrangé 指出,雖然 AI 代碼生成工具日益流行,但它們在法律和許可層面仍處于灰色地帶。廠商可能聲稱輸出內(nèi)容不受限制、許可靈活,但這類表述很可能只是基于利益立場的推廣“話術(shù)”。
更關(guān)鍵的是,這些模型的訓(xùn)練數(shù)據(jù)往往來自于大量帶有不同開源許可證的項目。而這些訓(xùn)練數(shù)據(jù)所衍生出的輸出,究竟屬于誰?是否符合特定項目的開源許可?目前在法律界和開發(fā)社區(qū)都尚無明確共識。
按照 DCO(開發(fā)者證書)規(guī)定,貢獻(xiàn)者必須保證自己有權(quán)以指定許可提交代碼。而在當(dāng)前缺乏共識的前提下,任何聲稱“AI生成代碼符合許可”的承諾,都是站不住腳的。
因此,QEMU 明確提出:暫不接受任何由 AI 工具生成或被懷疑生成的代碼提交。
Berrangé 也強(qiáng)調(diào),這一政策是階段性的。AI 工具未來或許能合法、安全地用于開源項目,但當(dāng)前環(huán)境下,采取謹(jǐn)慎立場更為穩(wěn)妥。
2.三大關(guān)鍵考量:版權(quán)、質(zhì)量與倫理
QEMU 是開源虛擬化領(lǐng)域的頂流項目之一,長期由 Red Hat 主導(dǎo)開發(fā),體量龐大、架構(gòu)復(fù)雜、社區(qū)成熟,是少數(shù)能夠與 Linux 深度集成、承擔(dān)底層架構(gòu)任務(wù)的大型項目。
正因如此,QEMU 的政策動向往往具有“風(fēng)向標(biāo)”意義,可能波及包括 libvirt、virt-manager、OpenStack 等在內(nèi)的整條虛擬化工具鏈。
實際上,QEMU 并不是第一個“封殺 AI 代碼”的項目。此前,Gentoo Linux 和 NetBSD 已率先推進(jìn)類似政策;GNOME 生態(tài)中的 Loupe 也明確禁止提交任何 AI 生成內(nèi)容。
綜合這些項目的共識,背后有三大關(guān)鍵考量:
1.代碼質(zhì)量:AI 工具生成的代碼常因缺乏上下文理解而邏輯混亂、冗余堆砌,極易造成“代碼污染”。這雖然最容易識別,卻并非唯一顧慮;
2.版權(quán)合規(guī):訓(xùn)練數(shù)據(jù)來源復(fù)雜,生成內(nèi)容可能“撞臉”原始代碼。一旦和特定開源項目高度相似,卻未遵循原始許可協(xié)議,就可能引發(fā)侵權(quán);
舉個例子:Linux 社區(qū)廣泛使用的 GitHub 平臺上充滿了 GPL 授權(quán)代碼,而 NetBSD 項目采用的是更寬松的 BSD 許可證。如果 AI 模型無意間“復(fù)刻”了某段 GPL 代碼并被引入 NetBSD,項目就必須面對兩個選項:要么全盤重寫,要么重新獲得許可。對于人力緊張的小型項目來說,這種代價是不可接受的。
3.倫理風(fēng)險:大型模型在訓(xùn)練階段可能使用了未經(jīng)授權(quán)的公共或私人代碼,形成對原始創(chuàng)作者勞動成果的系統(tǒng)性“掠奪”。
3.開發(fā)者聲音:AI 工具濫用,或已導(dǎo)致大量專有代碼泄露
在Hacker News上,不少開發(fā)者對當(dāng)前 AI 編碼工具的濫用現(xiàn)象表達(dá)了深刻擔(dān)憂,認(rèn)為這不僅關(guān)乎開源精神,更可能引發(fā)新一輪“版權(quán)災(zāi)難”。
一位開發(fā)者表示:
開源和自由軟件(libre/free software)在未來尤為脆弱——如果 AI 生成的代碼被裁定為侵犯版權(quán)或歸屬于公有領(lǐng)域,那么問題就嚴(yán)重了。
同時,相較于開源項目的高曝光度,專有軟件中的版權(quán)污染風(fēng)險更隱蔽但更棘手。
因為專有代碼很難被外部驗證,即使存在侵權(quán)行為,也往往難以察覺。而與此同時,許多 LLM 的訓(xùn)練語料庫又摻雜了開源項目(特別是 GPL 許可代碼),這使得生成內(nèi)容很可能在“合法性”與“私有性”之間模糊不清。
圖片
另一位開發(fā)者也發(fā)出警告:
我很確定,大量專有代碼其實都摻雜了自由開源軟件(FOSS)代碼,違反了開源許可證(特別是 GPL 和類似條款)?,F(xiàn)在很多專有代碼就是用受 FOSS 訓(xùn)練的 AI 寫出來的,而且公司對此態(tài)度公開。這可能會引爆一堆麻煩(一個“蟲洞罐頭”)。
圖片
更諷刺的是,雖然公司在合規(guī)層面往往會嚴(yán)令禁止員工使用 AI 工具,但在實際工作中,“一邊封口,一邊照用”的情況并不罕見。正如一位網(wǎng)友在 Hacker News 上所說:
“考慮到在 Hacker News 上有那么多人說他們在用 Cursor、OpenAI 等等處理工作事務(wù),加上我在職場中的親身經(jīng)歷——公司一邊說“絕對不能用”,一邊卻很多人照用——我懷疑有大量專有代碼正在被泄露出去?!?/p>
4.寫在最后:這是開源的趨勢拐點(diǎn)嗎?
AI 編程工具正以前所未有的速度融入開發(fā)流程,“禁 AI”看似謹(jǐn)慎,卻也可能讓部分新手開發(fā)者望而卻步——尤其是那些從一開始就習(xí)慣依賴 Copilot、ChatGPT 等工具的年輕人。
在這樣的背景下,開源社區(qū)如何既守住底線,又不拒絕未來?
這可能不是一朝一夕能夠解決的問題。如果要真正實現(xiàn) QEMU 所說的“在開源項目中合法、安全地使用 AI 工具”,或許需要同時滿足多個前提:訓(xùn)練數(shù)據(jù)的合規(guī)化、生成內(nèi)容的可追溯機(jī)制、社區(qū)治理的更新,以及更清晰的法律共識與判例支撐。
QEMU 的封禁決議,并非首例,也應(yīng)該不是終點(diǎn)。
真正的難題,不是要不要使用 AI,而是如何構(gòu)建一個信任、規(guī)則與責(zé)任共存的開發(fā)新范式。
你怎么看 QEMU 的這項“禁 AI”政策?
如果你是開源項目的維護(hù)者,會禁止 AI 生成的代碼提交嗎?