偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

從需求分析到代碼生成,LLM都能干點啥?一文讀懂291個軟工Benchmark!

人工智能 新聞
浙江大學(xué)、新加坡管理大學(xué)、加拿大渥太華大學(xué)等機構(gòu)的研究團隊,首次對291個用于評估LLMs在軟件工程任務(wù)中的Benchmark進(jìn)行了系統(tǒng)綜述,為AI4SE社區(qū)繪制了一份詳盡的「基準(zhǔn)地圖」與方法指南。

近年來,ChatGPT、Llama等大語言模型在軟件工程領(lǐng)域的能力突飛猛進(jìn),從需求分析、代碼生成到測試與維護(hù)幾乎無所不能。但一個核心問題是:我們?nèi)绾慰陀^評估這些模型在不同軟件工程任務(wù)中的表現(xiàn)?

在SE領(lǐng)域,Benchmark既是分?jǐn)?shù)卡,讓不同模型在同一標(biāo)準(zhǔn)下比拼;也是方向盤,引導(dǎo)技術(shù)改進(jìn)與未來研究方向。

然而,現(xiàn)有LLM-SE Benchmark存在三大痛點:

  • 零散分布:缺乏覆蓋全流程的軟件工程任務(wù)Benchmark綜述
  • 構(gòu)建方式各異:評估指標(biāo)、數(shù)據(jù)來源五花八門,難以橫向比較
  • 研究空白:此前從未有系統(tǒng)文獻(xiàn)綜述全面匯總軟件工程相關(guān)的大語言模型Benchmark

這使得開發(fā)者和研究者在選擇評估方法時常陷入「信息孤島」,甚至可能被不全面的評估結(jié)果誤導(dǎo)。

為填補這一空白,來自浙江大學(xué)、新加坡管理大學(xué)、渥太華大學(xué)等機構(gòu)的團隊開展了一項系統(tǒng)文獻(xiàn)綜述,首次全面梳理了291個用于評估大語言模型在軟件工程任務(wù)中的Benchmark,并從任務(wù)覆蓋、語言分布、構(gòu)建方式到未來趨勢進(jìn)行了深入分析。

論文鏈接:https://arxiv.org/pdf/2505.08903

圖1 綜述框架總覽

研究聚焦三大核心問題:

  • 現(xiàn)有LLM-SE Benchmark有哪些?
  • 它們是如何構(gòu)建的?
  • 它們面臨哪些挑戰(zhàn)與改進(jìn)機會?

為了確保全面、系統(tǒng),研究人員開展「地毯式搜索」:

數(shù)據(jù)來源:覆蓋IEEE Xplore、ACM DL、ScienceDirect、Springer Link等八大數(shù)據(jù)庫;

  • 補充檢索:采用前向與后向的「滾雪球」檢索,確保重要Benchmark不遺漏;
  • 嚴(yán)格篩選:設(shè)置包含與排除標(biāo)準(zhǔn),剔除與LLM-SE無關(guān)或信息不全的Benchmark;
  • 質(zhì)量評估:從描述清晰度、SE相關(guān)性、方法嚴(yán)謹(jǐn)性、可復(fù)現(xiàn)性、學(xué)術(shù)影響五個維度打分;
  • 最終成果:匯總291個在2025年6月前發(fā)表的Benchmark,按任務(wù)、語言、構(gòu)建方式等多維度分類分析。

六大任務(wù)全覆蓋

Benchmark演化脈絡(luò)清晰

圖2 Benchmark年份分布

統(tǒng)計顯示,自2022年起B(yǎng)enchmark數(shù)量快速增長,2023和2024年分別新增近70個,增長勢頭迅猛。

圖3 Benchmark語言分布

Python在評估Benchmark中一騎絕塵,主要用于代碼生成與推薦類任務(wù);Java、C++、C語言在質(zhì)量分析與維護(hù)任務(wù)中占有重要地位;Go、PHP、Ruby等小眾語言的Benchmark仍然稀缺。

圖4 Benchmark任務(wù)分布

任務(wù)分布(六大類)

  • 需求與設(shè)計(25個):需求獲取、分類、沖突檢測、規(guī)格化與驗證;
  • 編碼輔助(124個):代碼生成、補全、摘要、多語言遷移(占比超40%,最多);
  • 軟件測試(25個):測試生成、GUI測試、斷言生成、自動修復(fù);
  • AIOps(6個):日志生成與解析;
  • 軟件維護(hù)(13個):代碼審查、克隆檢測、代碼重構(gòu);
  • 質(zhì)量管理(111個):缺陷檢測、漏洞識別、修復(fù)建議(占比38%)。

其中「編碼輔助」任務(wù)相關(guān)Benchmark數(shù)量最多,占比超過40%,其次是質(zhì)量管理類任務(wù),占比達(dá)38%。

現(xiàn)實挑戰(zhàn)

Benchmark還遠(yuǎn)遠(yuǎn)不夠用!

研究指出,當(dāng)前Benchmark建設(shè)存在五大瓶頸:

  • 任務(wù)定義模糊、評價不一致:缺乏統(tǒng)一標(biāo)準(zhǔn),難以橫向?qū)Ρ龋?/span>
  • 規(guī)模受限、計算成本高:多數(shù)數(shù)據(jù)集規(guī)模偏小,覆蓋不了復(fù)雜系統(tǒng);
  • 泛化能力不足:Benchmark表現(xiàn)好,真實場景卻「水土不服」;
  • 更新滯后:難以及時跟進(jìn)新技術(shù)與框架;
  • 數(shù)據(jù)隱私限制:真實企業(yè)數(shù)據(jù)難以共享,影響高質(zhì)量Benchmark建設(shè)。

未來機會

Benchmark建設(shè)仍是「藍(lán)?!?/span>

團隊提出了五大改進(jìn)方向:

  • 多維評估:引入準(zhǔn)確率、可維護(hù)性、效率、安全性、可解釋性等指標(biāo);
  • 跨語言、跨任務(wù):統(tǒng)一評估框架,提升通用性;
  • 貼近真實場景:引入真實項目數(shù)據(jù),提高落地性;
  • 人類反饋與倫理考量:納入有害性檢測、隱私風(fēng)險等維度;
  • 動態(tài)可擴展平臺:支持任務(wù)擴展、新模型接入與持續(xù)測評。

總結(jié)

Benchmark是推動LLM落地的「發(fā)動機」

正如作者所言——當(dāng)前LLM在軟件工程中的應(yīng)用正處于「黃金發(fā)展期」,但真正能驅(qū)動其走向工業(yè)落地、提升工程可信度的,是那些更真實、更多維、更動態(tài)的Benchmark體系。

這項研究不僅填補了LLM軟件工程評估的綜述空白,也為AI4SE研究者、開發(fā)者和企業(yè)提供了清晰的「下一步方向」。

如果說模型是「馬達(dá)」,Benchmark就是「方向盤」。誰能把握住它,誰就能在AI軟件工程的未來之路上走得更遠(yuǎn)。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2024-01-15 05:55:33

2023-05-20 17:58:31

低代碼軟件

2024-05-27 00:45:00

2022-01-07 17:28:07

操作系統(tǒng)IO 內(nèi)存

2019-07-04 15:16:42

數(shù)據(jù)架構(gòu)Flink數(shù)據(jù)倉庫

2019-04-08 09:15:56

2024-05-28 11:32:01

2023-12-22 19:59:15

2021-08-04 16:06:45

DataOps智領(lǐng)云

2024-06-04 12:59:41

2022-04-18 09:16:47

層次聚類Python代碼

2023-11-27 17:35:48

ComponentWeb外層

2025-10-14 09:01:20

2022-07-26 00:00:03

語言模型人工智能

2022-07-05 06:30:54

云網(wǎng)絡(luò)網(wǎng)絡(luò)云原生

2022-12-01 17:23:45

2021-12-29 18:00:19

無損網(wǎng)絡(luò)網(wǎng)絡(luò)通信網(wǎng)絡(luò)

2022-10-20 08:01:23

2023-12-26 14:12:12

人工智能機器學(xué)習(xí)Gen AI

2023-12-10 14:59:53

點贊
收藏

51CTO技術(shù)棧公眾號