偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

為何大語言模型不會(huì)取代碼農(nóng)?

譯文
人工智能
大語言模型(LLM)有望給軟件開發(fā)界帶來的好處是可以將碼農(nóng)變成架構(gòu)師。不過,并非所有LLM都天生一樣。

譯者 | 布加迪

審校 | 重樓

生成式人工智能(GenAI)會(huì)取代人類程序員嗎?恐怕不會(huì)。不過,使用GenAI的人可能會(huì)取代程序員。但是如今有這么多的大語言模型(LLM),實(shí)際效果不一而足。

如果在努力跟上所有LLM,并非只有您一個(gè)。我們目睹一場激烈的LLM競賽。單單谷歌的GenAI產(chǎn)品已經(jīng)變得非常豐富——最新的開放模型Gemma是LLM快速精簡的最新例子,甚至可以稱之為小語言模型。

DevOps社區(qū)更密切相關(guān)的是我們看到其他用于生成代碼的LLM閃電般的開發(fā)速度,比如Meta最近更新的Code Llama 70B。當(dāng)然,GenAI了不少開發(fā)者。最近的一項(xiàng)研究發(fā)現(xiàn),近一半的開發(fā)者對(duì)于自己憑借目前的技術(shù)技能在GenAI界取得成功表示擔(dān)憂。

這種擔(dān)心真的有道理嗎關(guān)于人類程序員死的說法可能夸大其辭了。人類甚至可能實(shí)際上有更多的時(shí)間來準(zhǔn)備迎接GenAI主導(dǎo)的世界。

事實(shí)上,開發(fā)者應(yīng)該詢問的更適當(dāng)的問題不是GenAI會(huì)搶走我的工作嗎?”,而是我該使用哪個(gè)LLM?”

太龐大了,編程沒法成功

LLM軟件開發(fā)界的承諾是有望將碼農(nóng)變成架構(gòu)師。然而,并非所有LLM都天生一樣;值得探討的是,為什么一開始就涌現(xiàn)了較小巧LLM。

強(qiáng)大的主流模型(比如GPT-4Claude 2仍然只能勉強(qiáng)解決不到5%的實(shí)際GitHub問題。ChatGPT仍然存在嚴(yán)重的幻覺問題:假變量,或者甚至十多年前就已經(jīng)被棄用的概念。此外,它讓沒用的內(nèi)容看起來很有用。您可以嘗試利用提示工程來擺脫這些沒用的內(nèi)容,但是有益的上下文數(shù)量存在一個(gè)最佳平衡點(diǎn)——太多會(huì)導(dǎo)致更混亂隨機(jī)的結(jié)果,白白耗費(fèi)了更多的處理能力。

LLM編程方面更大的問題是信任。在過去,主流LLM不加區(qū)別地吸收網(wǎng)上的一切內(nèi)容,就像一個(gè)大型數(shù)字吸塵器,至于它們從哪里獲取數(shù)據(jù)缺乏透明度。哪怕一家公司交付的代碼中僅僅1%含有另一家公司的受版權(quán)保護(hù)的代碼,這也是個(gè)問題。您可以想象噩夢(mèng)般的召回場景:交付的產(chǎn)品沒有無線傳輸功能挑出可疑代碼。

不過,LLM格局正在迅速改變。

LLM對(duì)于編碼夠?qū)I(yè)嗎?

當(dāng)Meta在今年早些時(shí)候宣布對(duì)其Code Llama 70B進(jìn)行更新時(shí),感覺這是受歡迎的嘗試,有望解決主流LLM對(duì)編碼缺乏關(guān)注的問題。它有三種不同大小的版本:70億個(gè)參數(shù)、130億個(gè)參數(shù)和340億個(gè)參數(shù)。它還使用代碼的5000億個(gè)token和與代碼相關(guān)的數(shù)據(jù)進(jìn)行訓(xùn)練,包含10萬個(gè)token龐大上下文窗口。

從理論上講,其中最令人興奮的是Code Llama Python,這是專門為Python設(shè)計(jì)的Code Llama版本——主要是由于它代表了LLM未來的發(fā)展方向。與Meta的大型科技同行開發(fā)的一些模型不同,這個(gè)模型完全致力于一種特定的語言編程,使用Python代碼的大約1000億個(gè)額外token進(jìn)行訓(xùn)練業(yè)界更加需要的正是針對(duì)特定用例的這種級(jí)別的定制建模。

之所以需要強(qiáng)調(diào)理論上令人興奮”,是由于像Code Llama這樣的LLM對(duì)開發(fā)者到底有多用還有待觀察。去Reddit看看,就會(huì)發(fā)現(xiàn)早期的結(jié)論似乎是,該模型因諸多問題而令人沮喪,其中包括復(fù)雜的提示格式、過于嚴(yán)格的護(hù)欄,最重要的還有幻覺問題。最后一點(diǎn)是另一個(gè)不爭的事實(shí),提醒人們:任何模型的好壞完全取決于訓(xùn)練它所使用的數(shù)據(jù)。

不管是否存在缺陷,Meta的定制LLM方法已經(jīng)引起了人們的重視,即大語言模型并不是AI輔助代碼生成取得成功的唯一途徑。我們看到,業(yè)界越來越青睞使用規(guī)模較小、更專門化的LLM編寫代碼,比如BigCode、Codegen和CodeAlpaca。StarCoder是另一個(gè)LLM,盡管只有155億個(gè)參數(shù),但在評(píng)估基準(zhǔn)測(cè)試表現(xiàn)卻勝過PaLM、LaMDA和LLaMA等大模型。

每一種選擇都有優(yōu)缺點(diǎn),但最重要的是,小模型用起來比大模型安全得多。如果在用C++編程,果真需要您的LLM充斥著一大堆不相關(guān)的知識(shí)(比如“誰是美國第三任總統(tǒng)?”)嗎?數(shù)據(jù)池越小,保持內(nèi)容的相關(guān)性就越容易,模型的訓(xùn)練成本就越低,無意中竊取他人受版權(quán)保護(hù)數(shù)據(jù)的可能性也就越小。

2024年的DevOps團(tuán)隊(duì)?wèi)?yīng)該徹底調(diào)研市上所有可用的LLM選項(xiàng),而不是默認(rèn)選擇最明顯的選項(xiàng)。甚至可能有必要針對(duì)不同的用例使用不止一種LLM。

但回到當(dāng)前存在問題……

GenAI會(huì)取代人類嗎?

這些GenAI工具有可能代替真正程序員嗎?除非模型提供的編程答案具有的準(zhǔn)確性提高可接受的誤差范圍內(nèi)即98%-100%,否則可能代替不了。

不過為了便于討論,我們假設(shè)GenAI確實(shí)達(dá)到了這個(gè)誤差范圍。那么這是否意味著軟件工程的角色將發(fā)生轉(zhuǎn)變,只需審查和驗(yàn)證AI生成的代碼,而不是編寫代碼如果四眼原則(four-eyes principle)適用的話,這樣的假設(shè)可能是錯(cuò)誤的。這是內(nèi)部風(fēng)險(xiǎn)控制最重要的機(jī)制之一,要求任何實(shí)質(zhì)性風(fēng)險(xiǎn)的活動(dòng)比如交付軟件都要由第二個(gè)、獨(dú)立的、有能力的人進(jìn)行審查和復(fù)核。除非AI被重新歸類一種獨(dú)立的、有能力的生命,否則它短期內(nèi)應(yīng)該沒有資格成為四眼原則中的另一雙眼睛。

如果GenAI將來有能力進(jìn)行端到端開發(fā)和構(gòu)建人機(jī)界面,那也不會(huì)是在不久的將來。LLM可以充分地與文本和圖像元素進(jìn)行交互。甚至現(xiàn)在就有工具可以將網(wǎng)頁設(shè)計(jì)轉(zhuǎn)換成前端代碼。然而與編碼相比,AI單獨(dú)承擔(dān)與圖形和UI/UX工作流程相關(guān)的設(shè)計(jì)要困難得多盡管并非不可能。編碼也只是開發(fā)的其中一部分。剩工作就是另辟蹊徑,弄清楚誰是受眾,將想法轉(zhuǎn)化為可構(gòu)建的產(chǎn)品,然后加以完善和改進(jìn),是人類發(fā)揮作用的地方。

不管LLM變得有多好,對(duì)于程序員來說,有一條原則應(yīng)該始終不變:像對(duì)待自己編寫的代碼一樣對(duì)待每一段代碼。請(qǐng)同行評(píng)審,詢問同事這是好的代碼嗎?”。永遠(yuǎn)不要盲目相信代碼

原文標(biāo)題:Why Large Language Models Won’t Replace Human Coders,作者:Peter Schneider

責(zé)任編輯:華軒 來源: 51CTO
相關(guān)推薦

2025-05-23 08:18:52

2024-10-22 17:24:32

2025-10-03 08:34:14

2024-12-20 07:30:00

2023-09-20 08:00:00

大語言模型代碼庫

2020-05-19 13:49:43

C語言Java語言

2024-02-26 08:15:43

語言模型低代碼

2016-11-02 09:38:05

容器虛擬機(jī)服務(wù)器

2020-01-15 08:42:16

TCP三次握手弱網(wǎng)絡(luò)

2024-05-27 08:00:00

人工智能大語言模型

2025-02-07 12:54:57

大語言模型LLM

2025-08-27 16:05:39

2024-01-12 10:29:26

2024-12-02 09:37:09

大模型AI產(chǎn)品

2023-04-13 22:04:16

AI人工智能

2019-12-27 08:00:40

NAND存儲(chǔ)DRAM

2025-09-28 04:00:00

CWM世界模型語言模型

2025-04-22 08:08:37

2023-11-27 14:48:34

人工智能深度學(xué)習(xí)大語言模型
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)