偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

錯題本 × LLM:人機協(xié)作如何煉成“最嚴(yán)代碼考官”

人工智能
當(dāng) LLM 代碼模型在 HumanEval 拿下 80+ 分,卻在 LeetCode 真機上連錯 40%,我們應(yīng)該意識到:問題不在模型,而在“尺子”。本文拆解上海 AI Lab & 西交大最新研究 SAGA,看如何用“人機協(xié)作”把測試用例做成可度量、可規(guī)?;?AI 產(chǎn)品,讓評估從“玄學(xué)”變“科學(xué)”。

大家好,我是肆〇柒。在 vibe coding 活躍的當(dāng)下,有時,我們不得不思考一個問題:在軟件開發(fā)流程中,我們能否完全依賴、使用 LLM 生成的代碼?大型語言模型(LLM)在代碼生成基準(zhǔn)測試中的卓越表現(xiàn)備受矚目,從 HumanEval 到 LiveCodeBench,眾多基準(zhǔn)測試平臺見證了 LLM 在代碼生成任務(wù)上的飛速進(jìn)步。然而,隨著 LLM 日趨融入軟件開發(fā),其生成代碼的質(zhì)量和可靠性評估變得更加關(guān)鍵,因為這影響著生產(chǎn)落地應(yīng)用的品質(zhì)和服務(wù)價值。

那么,代碼驗證作為衡量 LLM 生成代碼質(zhì)量的核心環(huán)節(jié),其評估方法的可靠性,直接影響著我們對模型性能的認(rèn)知,以及強化學(xué)習(xí)從可驗證獎勵(RLVR)框架的有效性。但遺憾的是,當(dāng)前主流代碼生成評估基準(zhǔn)存在顯著局限性,這不僅高估了 LLM 的性能,還使得 RLVR 框架中的獎勵估計存在偏差。為此,上海人工智能實驗室聯(lián)合西安交通大學(xué)等機構(gòu)的研究者,系統(tǒng)地研究了測試用例生成(TCG)任務(wù),提出了多維度量化測試套件全面性的指標(biāo)體系,并引入“人 - LLM 協(xié)作”方法 SAGA(Strategic Adversarial & Constraint-differential GenerAtive workflow),顯著提升生成測試用例的覆蓋率和質(zhì)量。并且還開發(fā)了 TCGBench,助力 TCG 任務(wù)研究。

實驗表明,SAGA 在 TCGBench 上將驗證器準(zhǔn)確度(Verifier Accuracy,VAcc,衡量測試套件能否一次性拒絕所有已知錯誤解的指標(biāo))提升了 15.86%,基于 SAGA 的 CodeCompass 基準(zhǔn)測試使模型 Pass@1 相對下降 9.56%,重塑了模型性能排行榜。這項研究已開源 TCGBench 和 TCGCoder-7B,期望推動 RLVR 研究發(fā)展。

這個研究非常有意思,我欣賞到的是一場 AI 原生的“定義任務(wù)”-“制定評估”-“人機交互”的一次研究實戰(zhàn)。這拋開研究課題內(nèi)容本身,對于自己落地 AI,很有借鑒意義。下面我們一起來看看研究歷程。

現(xiàn)有代碼驗證方法的缺陷

主流代碼生成評估基準(zhǔn)存在諸多不足,這些缺陷可能導(dǎo)致我們對 LLM 性能的評估過于樂觀,許多潛在錯誤未被發(fā)現(xiàn)。以下是現(xiàn)有代碼驗證方法的主要缺陷:

測試用例覆蓋不足

主流代碼生成評估基準(zhǔn)的測試用例數(shù)量有限且同質(zhì)化嚴(yán)重。HumanEval 平均每個問題僅提供 7.7 個測試用例,MBPP 每個問題僅提供 3 個,EvalPlus 盡管增加了測試數(shù)量,卻導(dǎo)致通過率驟降 15%,暴露出測試用例覆蓋面不足、同質(zhì)化嚴(yán)重的問題。

LLM 生成測試用例的偏差

LiveCodeBench 利用 LLM 生成大量測試用例,在提升測試效率方面具有顯著優(yōu)勢。然而,其生成的測試用例存在明顯偏差,傾向于反映 LLM 自身的典型、同質(zhì)化錯誤模式,而人類編程錯誤則更加多樣化,涵蓋邏輯錯誤、整數(shù)溢出等多種復(fù)雜情況。這種偏差導(dǎo)致 LLM 生成的測試用例難以有效檢測人類編寫的錯誤代碼。

下圖(a)顯示,LLM 驗證器對人類代碼的漏檢率顯著高于 LLM 代碼。下圖(b)則揭示,LLM 誘導(dǎo)錯誤高度聚集,而人類錯誤分散。橫縱坐標(biāo)為前兩主成分,LLM 錯誤呈 “致密團(tuán)簇”(紅色),人類錯誤呈 “星云狀”(藍(lán)色)。距離越近代表錯誤模式越相似,可見 LLM 測試用例對 “團(tuán)簇外” 的人類錯誤幾乎無感知。這進(jìn)一步凸顯了現(xiàn)有驗證器在應(yīng)對多樣化錯誤模式時的不足,強調(diào)了改進(jìn)測試用例生成方法的必要性。


(a) LLM 驗證器對人類代碼漏檢率高;(b) LLM 錯誤模式分布與人類錯誤模式分布對比

既然“測得越多≠測得越好”,我們就需要一套更精細(xì)的尺子,來衡量“怎樣才算測得足夠好”。下面,我們先給出這套尺子的刻度——TCG 任務(wù)的正式定義與多維指標(biāo)。

測試用例生成任務(wù)的形式化定義與多維度評估指標(biāo)

帶著“尺子”的訴求,我們先把 TCG 任務(wù)放在放大鏡下:它到底要解決什么問題,又該用什么刻度來評價?

TCG 任務(wù)定義

多維度評估指標(biāo)

為更精準(zhǔn)衡量測試套件質(zhì)量,提出以下多維度評估指標(biāo):

至此,我們有了刻度,下一步自然要問:現(xiàn)有方法到底離“刻度滿分”還有多遠(yuǎn)?下面我們來了解一下三大主流范式。

現(xiàn)有 TCG 范式

在探討三種范式之前,我們先通過一張圖直觀對比它們的流程差異。

代碼評估流程與多種 TCG 范式

圖中清晰展示了:

  • 直接生成(Direct Generation)
  • 輸入解釋器(Input-Interpreter)
  • 人類先驗(Human Priors,即本文中的 SAGA 方法)

三者在輸入來源、輸出驗證方式上的關(guān)鍵區(qū)別。

直接生成范式

直接生成范式通過直接提示 LLM 生成完整測試用例,包括輸入和輸出。然而,這種方法對 LLM 的深度理解能力要求極高,尤其是對邊緣情況的把握。實驗結(jié)果顯示,LLM 生成的測試用例保留率低,整體 DR 通常低于 60%,VAcc 低于 10%,且 LLM 生成的解決方案容易通過自身生成的測試用例,表明這些測試用例難以挑戰(zhàn)模型的認(rèn)知偏差。例如,在生成復(fù)雜算法(如圖算法、動態(tài)規(guī)劃算法)的測試用例時,直接生成范式往往難以覆蓋所有關(guān)鍵路徑和邊界條件,導(dǎo)致生成的測試用例質(zhì)量較低。

下圖(a)展示了 LLM 直接生成的測試用例質(zhì)量低,下圖(b)顯示了其高自通過率,這表明 LLM 生成的測試用例存在明顯不足,難以有效檢測代碼中的錯誤。

 (a) LLM 直接生成測試用例質(zhì)量低;(b) LLM 生成測試用例高自通過率

輸入解釋器范式

輸入解釋器范式由 LLM 生成隨機輸入,再由真實解釋器計算對應(yīng)輸出。雖然這種方法可以生成大量測試用例,但單純增加數(shù)量無法根本提升檢測率,因為測試用例之間存在相關(guān)性。通過理論推導(dǎo)和實驗驗證,我們發(fā)現(xiàn),隨著生成的測試用例數(shù)量 n 趨近于無窮大,在平均檢測概率 p 和平均正相關(guān) p eff 穩(wěn)定的情況下,檢測率的上限收斂于 。這表明,測試用例的相關(guān)性限制了檢測率的提升。例如,在測試一個數(shù)學(xué)計算函數(shù)時,輸入解釋器范式生成的測試用例可能集中在某些特定的數(shù)值范圍或計算模式內(nèi),導(dǎo)致無法有效檢測出在其他數(shù)值范圍或計算模式下的錯誤。

下圖(a)顯示,隨著測試用例數(shù)量增加,檢測率逐漸飽和,無法達(dá)到 100%。下圖(b)進(jìn)一步表明,檢測率與測試用例數(shù)量的對數(shù)呈半對數(shù)關(guān)系,驗證了相關(guān)性對檢測率提升的限制。

(a) 檢測率隨測試用例數(shù)量增加而飽和;(b) 檢測率與測試用例數(shù)量的對數(shù)關(guān)系

Human Priors 范式(人類先驗)

Human Priors 范式利用人類的正確解決方案和錯誤解決方案來指導(dǎo) LLM 生成測試用例。與前兩種范式相比,該方法能夠更好地結(jié)合人類的編程經(jīng)驗和 LLM 的語義理解能力,通過人機交互,從而生成更高質(zhì)量的測試用例。

三大范式對比

范式

輸入來源

輸出驗證

主要缺陷

典型案例

直接生成

LLM 直接產(chǎn)出

人工/腳本

邊緣遺漏

TestChain

輸入解釋器

隨機采樣

真值解釋器

相關(guān)性飽和

LiveCodeBench

Human Priors

人類解+錯誤解

真值解釋器

需結(jié)構(gòu)化整合

SAGA

經(jīng)驗告訴我們:單靠 LLM 或單靠人類直覺都不足以突破天花板。在 LLM 性能日趨強大的今天,我們可以嘗試“人機協(xié)作”,把二者擰成一股繩——這就是 SAGA(Strategic Adversarial & Constraint-differential GenerAtive workflow)。

SAGA:人 - LLM 協(xié)作的 TCG 框架

研究者提出 SAGA,正是為了回答“如何利用人類知識,卻不被人類知識的速度和規(guī)模所限”這一關(guān)鍵問題。

SAGA(Strategic Adversarial & Constraint-differential GenerAtive workflow)是一種創(chuàng)新的人 - LLM 協(xié)作框架,致力于生成高質(zhì)量、多樣化且具有區(qū)分性的測試套件。該框架通過結(jié)合人類編程見解與 LLM 推理,充分利用正確解決方案和錯誤提交中的信息,以指導(dǎo) LLM 構(gòu)建挑戰(zhàn)性測試輸入。

工作流程

SAGA 的工作流程如下:

1. 輸入階段 :SAGA 接收編程問題描述、正確解決方案以及錯誤提交。

2. 分析階段 :SAGA 對正確解決方案進(jìn)行多維度分析,提取約束處理差異和防御模式解構(gòu)等關(guān)鍵信息;同時對錯誤提交進(jìn)行差異分析,找出約束處理差異、防御完整性缺失和失敗模式。

3. 生成階段 :SAGA 利用提取的信息指導(dǎo) LLM 構(gòu)建挑戰(zhàn)性測試輸入,并生成相應(yīng)的測試用例。

4. 驗證階段 :通過自驗證腳本驗證生成的測試用例是否符合問題約束和測試策略,確保測試用例的有效性和準(zhǔn)確性。

下圖展示了 SAGA 框架的整體架構(gòu),包括輸入、分析、生成和驗證等階段,體現(xiàn)了其人 - LLM 協(xié)作的特點。

SAGA 框架架構(gòu)

多維度分析與差異分析

多維度分析從正確解決方案中提取深刻見解以設(shè)計挑戰(zhàn)性測試,主要涵蓋約束處理差異和防御模式解構(gòu)兩個方面:

  • 約束處理差異 :比較錯誤解決方案 Swrong 和正確解決方案 S′ 在處理問題特定約束上的差異,發(fā)現(xiàn)測試用例中約束條件的薄弱環(huán)節(jié),從而設(shè)計出更能暴露錯誤的測試用例。例如,在一個資源分配問題中,正確解決方案可能嚴(yán)格遵循資源限制條件,而錯誤解決方案可能在某些情況下超出資源限制。通過分析這種差異,可以生成專門測試資源限制條件的測試用例。
  • 防御模式解構(gòu) :將正確解決方案中的防御邏輯和問題解決策略分解為正式的數(shù)學(xué)或邏輯約束,如 “等價類:玩家配對”,“邊界值:[(1,2), (N,N?1)]”,使 SAGA 能針對奇點、極端值或特定結(jié)構(gòu)屬性生成邊緣和對抗性測試用例,提升測試用例的多樣性和針對性。例如,在一個網(wǎng)絡(luò)請求處理函數(shù)中,正確解決方案可能對各種異常請求(如超大請求、非法格式請求)進(jìn)行了完善的防御處理。通過解構(gòu)這些防御模式,可以生成相應(yīng)的異常請求測試用例,驗證代碼在面對惡意攻擊或異常輸入時的魯棒性。

差異分析通過對比錯誤提交 Swrong 與其修正版本 S′ correct,發(fā)現(xiàn)常見錯誤模式。主要關(guān)注以下幾點:

  • 約束處理差異 :找出 Swrong 和 S′ correct 在處理問題特定約束上的差異。例如,在一個數(shù)據(jù)處理任務(wù)中,錯誤提交可能未正確處理數(shù)據(jù)的完整性約束,而修正版本則修復(fù)了這一問題。通過分析這種差異,可以生成專門測試數(shù)據(jù)完整性約束的測試用例。
  • 防御完整性缺失 :揭示 Swrong 在處理邊緣情況或邊界輸入方面的不足。例如,錯誤提交可能未對極端輸入值(如非常大或非常小的數(shù)值)進(jìn)行有效的處理,導(dǎo)致程序崩潰或產(chǎn)生錯誤結(jié)果。通過差異分析,可以發(fā)現(xiàn)這些缺失的防御措施,并生成相應(yīng)的邊緣輸入測試用例。
  • 失敗模式分析 :生成能觸發(fā) Swrong 失敗但被 S′ correct 正確處理的特定輸入,將這些輸入納入測試套件 T,增強驗證器的區(qū)分能力。例如,錯誤提交可能在處理并發(fā)訪問時存在死鎖問題,而修正版本通過優(yōu)化鎖機制解決了這一問題。通過失敗模式分析,可以生成特定的并發(fā)測試用例,驗證代碼在高并發(fā)場景下的正確性。

自驗證腳本

自驗證腳本在確保生成測試輸入符合問題約束和測試策略方面發(fā)揮著重要作用。它在執(zhí)行前驗證測試輸入是否滿足問題要求,如檢查輸入是否符合指定范圍、格式等,從而提升生成測試用例的準(zhǔn)確性和有效性,避免生成無效或不符合要求的測試用例。例如,在一個文件解析函數(shù)的測試中,自驗證腳本可以檢查生成的測試文件是否符合特定的文件格式規(guī)范(如 JSON 格式、XML 格式),確保測試用例的有效性。

SAGA 的優(yōu)勢

與傳統(tǒng) TCG 范式相比,SAGA 具備以下優(yōu)勢:

1. 高質(zhì)量測試用例生成 :通過結(jié)合人類編程見解與 LLM 推理,SAGA 能夠生成更高質(zhì)量的測試用例,有效提升測試套件的檢測率和驗證器準(zhǔn)確度。

2. 多樣化測試用例 :SAGA 的多維度分析和差異分析能夠生成多樣化的測試用例,覆蓋更廣泛的錯誤模式,降低測試用例之間的相關(guān)性。

3. 適應(yīng)性強 :SAGA 對不同的 LLM backbone 具有良好的適應(yīng)性,即使使用較小的模型也能取得優(yōu)異的性能。

SAGA 的實驗驗證

通過實驗驗證 SAGA 框架在提升測試用例生成質(zhì)量方面的有效性,并與現(xiàn)有方法進(jìn)行對比,分析其優(yōu)勢和局限性,提出實驗。

實驗設(shè)置

在 TCGBench 上對 SAGA 進(jìn)行了全面驗證。TCGBench 匯集了來自 Atcoder、Codeforces 和 Nowcoder 的 1840 個近期編程問題,每個問題平均包含 36.66 個錯誤用戶提交。我們采用了 DeepSeek-V3-0324、Qwen2.5-72B-Instruct 和 Qwen2.5-Coder-32B-Instruct 等開源 LLM 模型,并運用檢測率(DR)、驗證器準(zhǔn)確度(VAcc)、不同錯誤模式覆蓋率(DEPC)和多樣性比率(Diversity Ratio)等指標(biāo)進(jìn)行評價。

關(guān)鍵發(fā)現(xiàn)與圖表引用

實驗結(jié)果顯示,SAGA 在檢測率、驗證器準(zhǔn)確度等關(guān)鍵指標(biāo)上顯著優(yōu)于隨機輸入解釋器基線及其單獨分析組件。例如,在 270 道 TCGBench-Lite 難題上,SAGA 將 VAcc@50 從隨機基線的 16.72% 提升到 32.58%,提升 15.86 個百分點,相當(dāng)于讓每三個原本蒙混過關(guān)的錯誤解中多抓出一個。其 AUC@50(0.5445)是基線的 2 倍。這表明 SAGA 能更有效地檢測錯誤,生成更具區(qū)分性的測試用例。

下圖(a)展示了 SAGA 在檢測率上的表現(xiàn)遠(yuǎn)超基線和單獨分析組件,下圖(b)顯示了 SAGA 在驗證器準(zhǔn)確度上的顯著優(yōu)勢,下圖(c)和下圖(d)分別呈現(xiàn)了 SAGA 在不同錯誤模式覆蓋率和多樣性比率方面的優(yōu)秀表現(xiàn)。

(a) SAGA 檢測率表現(xiàn);(b) SAGA 驗證器準(zhǔn)確度表現(xiàn);(c) SAGA 不同錯誤模式覆蓋率;(d) SAGA 多樣性比率表現(xiàn)

進(jìn)一步分析發(fā)現(xiàn),SAGA 生成的測試用例在不同錯誤模式覆蓋率和多樣性比率方面也表現(xiàn)出色,能夠更廣泛地覆蓋錯誤模式,降低測試用例之間的相關(guān)性,從而提高測試套件的整體質(zhì)量。例如,在一個字符串處理函數(shù)的測試中,SAGA 生成的測試用例涵蓋了各種字符串邊界情況(如空字符串、超長字符串、包含特殊字符的字符串),而基線方法生成的測試用例則主要集中在普通字符串情況,未能有效覆蓋邊界情況。

消融實驗

通過對 SAGA 進(jìn)行消融實驗,研究者深入分析了其各個組件對性能的影響。結(jié)果表明,多維度分析和差異分析組件的協(xié)同作用是實現(xiàn) SAGA 優(yōu)越性能的關(guān)鍵。以下是消融實驗結(jié)果:

配置

DR@50

VAcc@50

AUC@50

DivRatio@50

SAGA 完整框架

90.62%

32.58%

0.2228

94.06%

僅多維度分析

88.00%

26.05%

0.1923

95.81%

僅差異分析

88.16%

26.67%

0.1926

94.41%

基線方法

82.85%

21.89%

0.2586

-

從表中可以看出,SAGA 對 LLM backbone 變化表現(xiàn)出良好的魯棒性,即使使用較小的 Qwen2.5-Coder-7B 模型,也能取得與基線方法相媲美甚至更優(yōu)的性能。這充分證明了 SAGA 框架的有效性和適應(yīng)性。

下圖展示了 SAGA 在不同 LLM backbone 下的性能表現(xiàn),表明其在不同模型和問題來源下均能顯著提升檢測率和驗證器準(zhǔn)確度。

SAGA 在不同 LLM backbone 下的檢測率和驗證器準(zhǔn)確度表現(xiàn)

基于 SAGA 的高級應(yīng)用

帶著實驗驗證的信心,研究者讓 SAGA 直接“接管”了 270 道最新競賽題,由此誕生了更嚴(yán)苛、更公平的全新基準(zhǔn)——CodeComPass。

CodeComPass 基準(zhǔn)測試

研究者基于 SAGA 開發(fā)了 CodeComPass,這是一個高質(zhì)量的代碼生成評估基準(zhǔn)測試。與 LiveCodeBench-v6 相比,CodeComPass 在驗證器質(zhì)量、對代碼生成模型評估的區(qū)分能力等方面實現(xiàn)了顯著提升。例如,在共享子集上,CodeComPass 的 DR@40 比 LiveCodeBench-v6 高出 14.59 個百分點,VAcc@40 高出 10.78 個百分點,多樣性比率高出 43.13%,AUC@40 高出 43.4%。這些提升表明,CodeComPass 能更準(zhǔn)確地評估代碼生成模型的性能。

CodeComPass 在不同難度問題上的平均 Pass@1 表現(xiàn)

上圖顯示了 CodeComPass 在不同難度問題上的平均 Pass@1 表現(xiàn),表明其對模型性能的區(qū)分能力更強。下圖則展示了模型在 CodeComPass 和 LiveCodeBench-v6 上的排名變化,凸顯了 CodeComPass 能更細(xì)致地揭示模型之間的性能差異。

模型在 CodeComPass 和 LiveCodeBench-v6 上的排名變化

對 RLVR 的影響

SAGA 生成的高質(zhì)量驗證器顯著提高了 RLVR 框架的準(zhǔn)確性。通過提供更準(zhǔn)確的獎勵信號,SAGA 減少了獎勵欺騙現(xiàn)象,使模型在訓(xùn)練過程中能更真實地反映其性能。例如,在使用 SAGA 生成的測試套件進(jìn)行訓(xùn)練時,模型在復(fù)雜編程問題(如圖算法問題、動態(tài)規(guī)劃問題)上的性能提升更為顯著,代碼生成的正確性和魯棒性得到增強。這為開發(fā)更強大、更可靠的代碼生成模型奠定了基礎(chǔ)。

至此,從“發(fā)現(xiàn)問題”到“定義刻度”再到“交付工具”,我們已經(jīng)跑完一個完整閉環(huán)。這就是一個關(guān)于“評估”的研究案例。

總結(jié)

本文重新審視了基于 LLM 的 TCG 方法,通過構(gòu)建 TCGBench、提出 SAGA 框架以及開發(fā) CodeComPass 和 TCGCoder-7B 等實際舉措,為提升 LLM 代碼評估的可靠性提供了切實可行的方案,提升了 RLVR 的性能,也為自動化對抗測試合成和自適應(yīng)基準(zhǔn)整合奠定了基礎(chǔ)。這些成果在優(yōu)化代碼生成評估方法、提高模型訓(xùn)練效率和增強代碼生成質(zhì)量方面具有重要意義。

如同我在文章開頭所說的那樣,這份研究真正吸引我的是研究者對“方法論”的演示。這對于我們在 AI 應(yīng)用中的“評估”設(shè)計以及落地,具有較高的參考價值。以下是我的一點學(xué)習(xí)后的觀感,分享給大家:

把“評估”做成產(chǎn)品:一次 AI 原生的方法論演練

如果把這篇論文只看成一個“更高明的測試用例生成器”,就低估了它的示范價值。它真正精彩的,是把“評估”本身當(dāng)成一個可迭代、可度量、可規(guī)?;?AI 產(chǎn)品——從任務(wù)定義、指標(biāo)設(shè)計、數(shù)據(jù)構(gòu)造、算法框架到最終交付,形成了一條AI-native 的閉環(huán)。下面我用五個關(guān)鍵詞,把這條閉環(huán)抽出來,供任何想在垂直場景落地 AI 的同學(xué)做一點參考,如果你覺得我說的不對,我希望能與你成為“覺察流”的社區(qū)伙伴,我們一起探討、進(jìn)化。

1. 痛點溯源:把“感覺不對”翻譯成“指標(biāo)不對”

  • 現(xiàn)象?HumanEval 看似 80+ 分,實則在 LeetCode 真·評測機上 20 %~40 % 的題被打出 WA(Wrong Answer)。
  • 翻譯?不是模型菜,而是“測試用例的檢測率 / 驗證器準(zhǔn)確度”這兩個維度被嚴(yán)重高估。

啟發(fā):先別急著改模型,先改“尺子”。把“我覺得測試不夠”翻譯成可計算的 DR(Detection Rate) 與 VAcc(Verifier Accuracy),問題立刻有了抓手。

2. 任務(wù)定義:把“測試生成”升格為 TCG 任務(wù)

  • 輸入:問題描述 + 題解空間 + 歷史 WA/TLE(Time Limit Exceeded) 代碼
  • 輸出:用例集 T
  • 目標(biāo):最大化 DR(檢測率) & VAcc(驗證器準(zhǔn)確度),同時最小化測試冗余, 也就是≈ 最小化 (平均有效相關(guān)系數(shù),可以理解為“測試之間不要互相抄答案”)。

啟發(fā):用一句話把任務(wù)寫成“帶約束的優(yōu)化問題”,后面就能用算法和數(shù)據(jù)來解。

3.據(jù)工廠:把公開平臺變成“錯誤市集”

  • 從 AtCoder / Codeforces / Nowcoder 抓 1840 道最新題 + 36.66 條真實錯誤提交 / 題
  • 人工去噪,不人為寫用例——讓數(shù)據(jù)保持“野生”分布

啟發(fā):高質(zhì)量數(shù)據(jù)不必從零標(biāo)注;把公開資源“切一刀”就能變成科研級數(shù)據(jù)集(TCGBench)。這一招可復(fù)制到任何帶評測記錄的開源社區(qū)。

4. 人機協(xié)作:讓 LLM 做“放大器”,人類做“瞄準(zhǔn)鏡”

SAGA 人機協(xié)作中,有個很妙的點,就在于雙向蒸餾

  • 正向蒸餾:從 AC(Accepted) 代碼里提煉“等價類 + 邊界值 + 防御模式” → 告訴 LLM “該往哪打”。
  • 反向蒸餾:從 WA(Wrong Answer) 代碼里提煉“錯誤觸發(fā)路徑” → 告訴 LLM “別人在哪兒跌倒”。最后讓 LLM 寫腳本、寫解釋、寫自檢,完成大規(guī)模、低人力的對抗用例倉庫。

啟發(fā):與其讓 LLM 瞎猜,不如用“人類錯題本”給它裝一個導(dǎo)航系統(tǒng)(指導(dǎo)作用);既解決規(guī)模,又保留人類經(jīng)驗。

5. 產(chǎn)品化交付:把“論文指標(biāo)”變成“行業(yè)基準(zhǔn)”

  • CodeComPass:270 道最新題 + 50.54 個 SAGA 用例 / 題 —> 直接替換 LiveCodeBench 子集,立刻讓排行榜重排座次。
  • TCGCoder-7B:用 15 k 題蒸餾出 7 B 小模型,推理成本降一個量級,效果卻吊打 70B 通用模型。

啟發(fā):評估基礎(chǔ)設(shè)施一旦做成“即插即用”的組件,就能反過來喂養(yǎng)訓(xùn)練、評測、產(chǎn)品迭代的全鏈路。

把“測得更準(zhǔn)”升級為“做得更對”

當(dāng)你把評估工具做成產(chǎn)品,它就不僅是“扣分器”,而成了持續(xù)改進(jìn)的飛輪

  • 對研究者而言:TCGBench + CodeComPass 提供了可復(fù)現(xiàn)、可對抗的科研沙盒;
  • 對工程師而言:SAGA 用例腳本可以直接嵌入 CI(持續(xù)集成),讓每一次 PR 都跑在更嚴(yán)苛的測試上;
  • 對 RL 訓(xùn)練者而言:更準(zhǔn)確的獎勵信號讓模型不再“鉆測試空子”,而是真正學(xué)會“寫對代碼”。

這正是 AI 時代的方法論:把“主觀經(jīng)驗”轉(zhuǎn)成“可計算指標(biāo)”,把“人力痛點”轉(zhuǎn)成“數(shù)據(jù)紅利”,把“一次性實驗”轉(zhuǎn)成“可持續(xù)迭代的系統(tǒng)”。

所以,我的理解,SAGA 是一套可遷移的模板。那么,,下一次,無論你是做表格理解、藥物發(fā)現(xiàn)還是硬件驗證,都可以復(fù)現(xiàn)這條“定義任務(wù) - 設(shè)計指標(biāo) - 人機協(xié)作 - 數(shù)據(jù)閉環(huán) - 產(chǎn)品化交付”的步驟。

一句話:評估不是成本,而是杠桿;把它做到極致,剩下的就只是時間問題了。

責(zé)任編輯:龐桂玉 來源: 覺察流
相關(guān)推薦

2025-08-29 09:11:00

2025-06-06 08:57:42

2021-04-08 09:33:02

機器人物聯(lián)網(wǎng)技術(shù)物聯(lián)網(wǎng)

2024-10-24 16:22:11

2025-04-07 09:00:00

AI趨勢智能體Agent

2020-07-07 10:37:17

人臉識別技術(shù)高考

2022-01-24 15:38:28

數(shù)據(jù)中心

2015-11-10 09:09:23

代碼程序員成長

2024-10-16 12:51:56

2025-10-14 08:00:00

2016-06-16 09:40:30

史上最嚴(yán)高考寶德服務(wù)器

2025-10-17 09:58:36

2012-03-06 15:23:24

MagneticBil圖標(biāo)App Store

2025-05-14 08:23:35

2011-07-06 09:47:42

蘋果

2025-07-11 10:11:38

2013-06-20 09:28:24

2014-10-15 11:10:28

騰訊團(tuán)隊

2020-09-08 14:53:58

人機協(xié)作智能

2019-08-05 14:34:59

機器人團(tuán)隊算法
點贊
收藏

51CTO技術(shù)棧公眾號