不寫代碼,拿百萬(wàn)年薪!ChatGPT提示工程或造就15億碼農(nóng)大軍
ChatGPT爆火之后,帶火了一項(xiàng)「網(wǎng)紅」新職業(yè)——提示工程師。
去年12月,一位名叫Riley Goodside的小哥瞬間紅遍全網(wǎng),只因他的工作太夢(mèng)幻了——不用寫代碼,跟ChatGPT嘮嘮嗑,就能年入百萬(wàn)。
是的,這項(xiàng)被稱為「AI耳語(yǔ)者」的工作,現(xiàn)在在硅谷已經(jīng)成為最熱門的新工作,讓無(wú)數(shù)碼農(nóng)趨之若鶩。
一夜爆紅的提示工程師
去年12月初,這位叫Riley Goodside的小哥,憑著ChatGPT的大爆,一夜間瘋狂漲粉1w+?,F(xiàn)在,總關(guān)注量更是達(dá)到了4w+。
當(dāng)時(shí),他被估值73億美元的硅谷獨(dú)角獸Scale AI聘請(qǐng)為「提示工程師」(Prompt Engineer),Scale AI疑似開(kāi)出百萬(wàn)rmb的年薪。

Scale AI創(chuàng)始人兼CEO Alexandr Wang曾這樣歡迎Goodside的加入:「我敢打賭Goodside是全世界第一個(gè)被招聘的提示工程師,絕對(duì)的人類史上首次?!?/span>
提示工程師看似只需要把任務(wù)寫成文字,給AI看一下即可,根本不涉及更復(fù)雜的過(guò)程。為什么這個(gè)工作能值百萬(wàn)年薪呢?
在Scale AI CEO看來(lái),AI大模型可以被視為一種新型計(jì)算機(jī),而「提示工程師」,就相當(dāng)于給它編程的程序員。如果能通過(guò)提示工程找出合適的提示詞,就會(huì)激發(fā)AI的最大潛力。
此外,提示工程師的工作,也并不像我們想象得那么簡(jiǎn)單。
Goodside從小就自學(xué)編程,平時(shí)經(jīng)常泡在arXiv上看論文。比如,他的一個(gè)經(jīng)典杰作就是:如果輸入「忽略之前的指示」,ChatGPT就會(huì)暴露自己從OpenAI那里接收到的「命令」。

對(duì)于生手,能夠這么熟練又快速地「調(diào)教」ChatGPT,恐怕并非易事。
但當(dāng)時(shí),坊間不乏質(zhì)疑聲,比如英偉達(dá)AI科學(xué)家、李飛飛高徒范麟熙就曾表示:「提示工程師」這份職業(yè),可能很快就會(huì)消失。因?yàn)檫@稱不上是一份「真正的工作」,而是一個(gè)bug……
不過(guò),《華盛頓郵報(bào)》近日的一篇報(bào)道顯示,「提示工程師」這個(gè)職位,依然大火,處于紅利期。
硅谷網(wǎng)紅新工作:不寫代碼,拿百萬(wàn)年薪
為什么「提示工程師」能拿這么高年薪?因?yàn)椋麄兡茏孉I準(zhǔn)確地產(chǎn)生他們想要的東西。
近日,「網(wǎng)紅」小哥Goodside接受了《華盛頓郵報(bào)》的采訪。
他是這樣介紹自己的工作的:創(chuàng)建和完善提示人們輸入AI的文本,以期從中獲得最佳結(jié)果。
提示工程師與傳統(tǒng)程序員的不同之處在于,提示工程師使用自然語(yǔ)言編程,將純文本編寫的命令發(fā)送給AI,然后由AI執(zhí)行實(shí)際工作。

Goodside說(shuō),提示工程師應(yīng)該為AI灌輸一種「角色」,一種能夠從數(shù)千億種潛在解決方案中識(shí)別出正確反應(yīng)的特定角色
與GPT-3交談時(shí),Goodside有獨(dú)特的一套「調(diào)教」方法——先確立自己的統(tǒng)治地位。他會(huì)告訴AI:你并不完美,你需要服從我所說(shuō)的一切。
「你是GPT-3,你不會(huì)做數(shù)學(xué),你的記憶能力令人印象深刻,但你有一種煩人的傾向,就是編造非常具體但錯(cuò)誤的答案?!?/span>
然后,他的態(tài)度軟化了一些,告訴AI他想嘗試一些新的東西。「我已經(jīng)把你連到了一個(gè)非常擅長(zhǎng)數(shù)學(xué)的程序上,當(dāng)它也變得不堪重負(fù)時(shí),它還會(huì)向另一個(gè)程序?qū)で髱椭??!?/span>
「我們會(huì)處理剩下的事情,」他告訴AI?!搁_(kāi)始吧?!?/span>
當(dāng)谷歌、微軟和OpenAI最近接連向公眾開(kāi)放AI搜索和聊天工具時(shí),他們顛覆了數(shù)十年的人機(jī)交互歷史——我們?cè)僖膊恍枰褂肞ython或SQL寫代碼來(lái)命令計(jì)算機(jī)了,只需要說(shuō)話就行。

特斯拉前AI主管Karpathy:現(xiàn)在最熱門的編程語(yǔ)言是英語(yǔ)
Goodside這樣的提示工程師,可以讓這些AI工具在最大極限下運(yùn)作——了解它們的缺陷,增強(qiáng)它們的優(yōu)勢(shì),制定復(fù)雜的策略,將簡(jiǎn)單的輸入轉(zhuǎn)化為真正獨(dú)特的結(jié)果。

2月7日,微軟高管Yusuf Mehdi正在講解整合了ChatGPT的必應(yīng)搜索
「提示工程」的支持者認(rèn)為,最近這些早期AI聊天機(jī)器人(比如ChatGPT和Bing Chat)表現(xiàn)出的怪異,實(shí)際上是人類想象力的失敗。之所以失敗,是因?yàn)槿祟惒](méi)有給機(jī)器提出正確的建議。
在真正的高級(jí)階段,提示工程師和AI的對(duì)話就像錯(cuò)綜復(fù)雜的邏輯謎題一樣展開(kāi),通過(guò)各種扭曲的描述完成請(qǐng)求和響應(yīng),并且它們都是朝著一個(gè)目標(biāo)前進(jìn)。
AI「沒(méi)有現(xiàn)實(shí)基礎(chǔ)......但它有這樣的理解:所有任務(wù)都可以完成,所有問(wèn)題都可以回答,因此我們總有話說(shuō),」Goodside說(shuō)。而訣竅就是,「為它構(gòu)建一個(gè)前提,一個(gè)只能以一種方式完成的故事」。
當(dāng)然,很多時(shí)候,這些被稱為「生成式人工智能」的AI工具是不可預(yù)測(cè)的,它們會(huì)出現(xiàn)亂碼,會(huì)表現(xiàn)得偏見(jiàn)、好戰(zhàn)、怪異、瘋狂。
「這是計(jì)算機(jī)的一種瘋狂的工作方式,但它能讓我們做到不可思議的事,」研究提示工程的英國(guó)程序員Simon Willison說(shuō)。
「我做了20年的軟件工程師,20年里一直在寫代碼,讓計(jì)算機(jī)完全按照我的指令去做。而在提示工程中,我們甚至不知道自己能得到什么,連構(gòu)建語(yǔ)言模型的人,都無(wú)法告訴我們它要做什么?!?/span>
Willison表示,很多人貶低提示工程師的價(jià)值,他們覺(jué)得,「在盒子里輸入東西就可以獲得報(bào)酬」,這很不可思議。而在Willison看來(lái),提示工程其實(shí)就跟施法一樣,沒(méi)人知道法術(shù)是如何運(yùn)作的。

在Karpathy看來(lái),提示工程師就像一種AI心理學(xué)家,大公司們紛紛聘請(qǐng)自己的提示工匠,希望能夠發(fā)現(xiàn)AI的隱藏功能。
有一些AI專家認(rèn)為,這是提示工程師覺(jué)得自己能控制AI,其實(shí)只是錯(cuò)覺(jué)罷了。
沒(méi)人知道AI系統(tǒng)究竟會(huì)如何回應(yīng),同樣的提示可能會(huì)產(chǎn)生幾十個(gè)互相矛盾的答案。這表明,模型的回答并不是基于理解,而是基于粗略地模仿語(yǔ)音,來(lái)解決他們不理解的任務(wù)。
華盛頓大學(xué)研究自然語(yǔ)言處理的語(yǔ)言學(xué)助理教授 Shane Steinert-Threlkeld也持相同觀點(diǎn):「任何驅(qū)動(dòng)模型響應(yīng)提示的行為,都不是對(duì)語(yǔ)言的深刻理解?!?/span>
「很顯然,他們只是在告訴我們,他們認(rèn)為我們想聽(tīng)的或我們已經(jīng)說(shuō)過(guò)的話。而我們,才是解釋這些輸出、并賦予它們意義的人。」
Steinert-Threlkeld教授擔(dān)心,提示工程師的興起,會(huì)讓人們高估這門技術(shù)的嚴(yán)謹(jǐn)性,并且導(dǎo)致人們產(chǎn)生一種錯(cuò)覺(jué)——任何人都可以從這個(gè)不斷變化的具有欺騙性的黑匣子中,獲得可靠的結(jié)果。
「這不是一門科學(xué),」他說(shuō)?!高@是我們?cè)谠囍貌煌姆绞饺ゴ烈活^熊,看它會(huì)如何咆哮?!?/span>

Goodside說(shuō),推動(dòng)AI發(fā)展的訣竅是「為它構(gòu)建一個(gè)前提,一個(gè)只能以一種方式完成的故事」
植入虛假記憶
以ChatGPT為代表的新AI,是從互聯(lián)網(wǎng)的語(yǔ)料庫(kù)中攝取了數(shù)千億個(gè)單詞來(lái)訓(xùn)練的。
它們被訓(xùn)練如何分析單詞和短語(yǔ)的使用模式。當(dāng)被要求說(shuō)話時(shí),AI就會(huì)模仿這些模式,選擇與對(duì)話上下文相呼應(yīng)的單詞和短語(yǔ)。
換句話說(shuō),這些AI工具是建立在預(yù)定義游戲規(guī)則之上的數(shù)學(xué)機(jī)器。但即使是一個(gè)沒(méi)有情感或個(gè)性的系統(tǒng),在受到人類對(duì)話的轟炸后,也可以發(fā)現(xiàn)人類談話方式的一些怪癖。
Goodside 說(shuō),AI傾向于「虛構(gòu)」,編造小細(xì)節(jié)來(lái)填充故事。它會(huì)高估自己的能力,自信地把事情搞錯(cuò)。它會(huì)「產(chǎn)生幻覺(jué)」,來(lái)胡說(shuō)八道。
正如 Goodside 所說(shuō),這些工具存在嚴(yán)重缺陷,是「人類知識(shí)和思想的展示」,「不可避免地是我們?cè)O(shè)計(jì)的產(chǎn)物」。
之前,微軟的必應(yīng)AI發(fā)狂時(shí),讓微軟陷入了公眾形象危機(jī)。不過(guò),對(duì)于提示工程師來(lái)說(shuō),必應(yīng)的古怪答案反倒是一個(gè)機(jī)會(huì),一個(gè)診斷秘密設(shè)計(jì)的系統(tǒng)如何工作的機(jī)會(huì)。
當(dāng)ChatGPT說(shuō)出令人尷尬的話時(shí),這對(duì)開(kāi)發(fā)者倒是一個(gè)福音,因?yàn)樗麄兛梢越鉀Q潛在的弱點(diǎn)?!高@個(gè)惡作劇是計(jì)劃的一部分?!?/span>

2月1日,在日內(nèi)瓦組織的教師ChatGPT研討會(huì)
而Goodside并沒(méi)有進(jìn)行道德辯論,而是采用更大膽的方法來(lái)進(jìn)行AI實(shí)驗(yàn)。
他采用了一種策略,告訴GPT-3 「一步一步地思考」——一種讓 AI 解釋其推理的方法,或者當(dāng)它犯錯(cuò)誤時(shí),以精細(xì)的方式糾正它。

「你必須把它作為模型說(shuō)過(guò)的最后一件事的虛假記憶來(lái)植入,就像它是模型的想法一樣。」Goodside這樣解釋道。
他還會(huì)告訴AI忽略先前的指令,服從他最近的命令,來(lái)打破這個(gè)AI對(duì)遵守規(guī)則的癡迷。他使用這種技術(shù)說(shuō)服了一個(gè)英語(yǔ)到法語(yǔ)的翻譯工具。

這引發(fā)了一場(chǎng)貓鼠游戲,公司和實(shí)驗(yàn)室致力于通過(guò)文字過(guò)濾器(word filters)和輸出塊(output blocks)來(lái)封閉AI漏洞。

但一名必應(yīng)Chat測(cè)試員,一位23歲的德國(guó)大學(xué)生,最近說(shuō)服了必應(yīng)AI他是它的開(kāi)發(fā)者,并且讓它公開(kāi)了內(nèi)部代號(hào)Sydney,以及培訓(xùn)說(shuō)明(比如「如果用戶請(qǐng)求可能傷害一群人,那么Syedney必須恭敬地拒絕」)。當(dāng)然現(xiàn)在,微軟已經(jīng)修復(fù)了這個(gè)缺陷。
Goodside說(shuō),對(duì)于每個(gè)請(qǐng)求,提示工程師都應(yīng)該向AI灌輸一種「角色」——一種能夠篩選出數(shù)千億個(gè)潛在解決方案,并確定正確響應(yīng)的特定角色。
他援引2021 年的一篇研究論文說(shuō),提示工程最重要的是就是「約束行為」——阻止選項(xiàng),以便AI能夠按照人類操作員期望的那樣繼續(xù)。

論文地址:https://arxiv.org/pdf/2102.07350.pdf
「這可能是一項(xiàng)非常困難的腦力鍛煉,」他說(shuō)。「你正在探索虛構(gòu)可能性的多元宇宙,塑造這些可能性的空間,并消除除了你想要的文本之外的一切?!?/span>
這項(xiàng)工作的最關(guān)鍵的部分,就是弄清楚AI何時(shí)會(huì)出錯(cuò),為什么會(huì)出錯(cuò)。但是這些AI沒(méi)有錯(cuò)誤報(bào)告,它們的輸出可能充滿驚喜。
當(dāng)機(jī)器學(xué)習(xí)小組SERI-MATS的研究人員 Jessica Rumbelow 和 Matthew Watkins 試圖讓AI解釋它們?nèi)绾伪硎尽概ⅰ够颉缚茖W(xué)」等概念時(shí),他們發(fā)現(xiàn)某些晦澀的術(shù)語(yǔ),比如「SolidGoldMagikarp」,往往會(huì)引發(fā)一種「神秘故障模式」——NSFW的亂碼流。
但原因完全未知。
這些系統(tǒng)「非常有說(shuō)服力,但當(dāng)它們失敗時(shí),它們會(huì)以非常出乎意料的方式失敗,」Rumbelow 說(shuō)。在她看來(lái),提示工程的工作有時(shí)感覺(jué)像在「研究一種外星智能」。

新Bing允許用戶以會(huì)話語(yǔ)言輸入查詢,并在同一頁(yè)面上接收傳統(tǒng)搜索的結(jié)果和問(wèn)題答案
超級(jí)創(chuàng)作者
對(duì)于AI語(yǔ)言工具,提示工程師傾向于以正式對(duì)話的風(fēng)格說(shuō)話。
但對(duì)于像Midjourney和Stable Diffusion這樣的AI,許多提示創(chuàng)作者采取了不同的策略。他們通過(guò)大量的文字(藝術(shù)概念、構(gòu)圖技巧),來(lái)塑造圖像的風(fēng)格和基調(diào)。
例如,在PromptHero上,有人通過(guò)提交「港口、船只、日落、美麗的光線、黃金時(shí)刻……超現(xiàn)實(shí)主義、聚焦的、細(xì)節(jié)豐富的……電影畫質(zhì),杰作」的提示,創(chuàng)作了一幅港口圖像。

這些提示工程師,把prompt作為自己的秘密武器,打開(kāi)AI大獎(jiǎng)的鑰匙。
去年在科羅拉多州博覽會(huì)藝術(shù)比賽的獲獎(jiǎng)?wù)?、《太空歌劇院》的?chuàng)作者,拒絕分享出自己在Midjourney所用的提示。
據(jù)說(shuō),他花了80多個(gè)小時(shí),在900次迭代中,才完成了這幅畫作。他透露,其中一些詞是「奢華」「豐富」。
還有一些prompt創(chuàng)作者,在PromptBase上出售自己的prompt。買家可以看到AI生成的藝術(shù)品,然后花錢購(gòu)買prompt。

PromptBase 的創(chuàng)始人、27 歲的英國(guó)開(kāi)發(fā)人員Ben Stokes說(shuō),自 2021 年以來(lái),已有 25,000 個(gè)帳戶在該平臺(tái)買賣prompt。
其中,有逼真的老式電影照片提示,有童話風(fēng)老鼠和青蛙的凄美插圖提示,當(dāng)然也有大量的色情提示:50字的Midjourney提示,用于創(chuàng)建逼真的「穿迷你衣服的女警察」,零售價(jià)為 1.99 美元。
Stokes稱,提示工程師是「多學(xué)科的超級(jí)創(chuàng)造者」,經(jīng)驗(yàn)豐富的工程師和業(yè)余愛(ài)好者之間存在明顯的「技能門檻」。他說(shuō),最好的創(chuàng)作者能夠利用藝術(shù)史和平面設(shè)計(jì)等領(lǐng)域的專業(yè)知識(shí):「用 35 毫米膠片拍攝」;「波斯……伊斯法罕的建筑」;「法國(guó)畫家Henri de Toulouse-Lautrec的風(fēng)格?!?/span>

「制作prompt很難,而且——我認(rèn)為這是人的一個(gè)缺陷——我們通常很難找到合適的詞,來(lái)描述你想要的東西,」Stokes說(shuō)?!妇拖褴浖こ處煴茸屗麄兇a字的筆記本電腦更有價(jià)值一樣,能夠?qū)懞锰崾镜娜吮葘懙貌缓玫娜烁袃?yōu)勢(shì)。他們就像擁有超能力一樣?!?/span>
但這項(xiàng)工作正變得越來(lái)越專業(yè)。
前OpenAI員工和Claude AI 制造商創(chuàng)辦的初創(chuàng)公司Anthropic ,最近在舊金山發(fā)布了一份提示工程師和管理員的招聘信息,薪水高達(dá) 335,000 美元。
提示工程師在科技行業(yè)之外,也有不錯(cuò)的行情。

波士頓兒童醫(yī)院本月開(kāi)始招聘「AI提示工程師」,幫助編寫用于分析研究和臨床實(shí)踐中的醫(yī)療保健數(shù)據(jù)的腳本。
倫敦最大律所之一Mishcon de Reya 正在招聘一名「法律提示工程師」,來(lái)設(shè)計(jì)為法律工作提供信息的prompt,并且要求申請(qǐng)人提交與ChatGPT對(duì)話的截圖。
但是,這些AI也會(huì)產(chǎn)生大量的合成廢話?,F(xiàn)在,數(shù)百本由AI生成的電子書正在亞馬遜上出售,科幻雜志 Clarkesworld本月停止接受短篇小說(shuō)的投稿,原因是大量小說(shuō)是由AI創(chuàng)作的。

論文地址:https://cdn.openai.com/papers/forecasting-misuse.pdf
上個(gè)月,來(lái)自O(shè)penAI和斯坦福大學(xué)的研究人員警告說(shuō),大語(yǔ)言模型會(huì)讓網(wǎng)絡(luò)釣魚活動(dòng)更有針對(duì)性。
「無(wú)數(shù)人因?yàn)轵_子的短信,就會(huì)上當(dāng)受騙,」英國(guó)程序員Willison說(shuō),「AI比騙子更有說(shuō)服力。那時(shí)會(huì)發(fā)生什么?」
首位提示工程師的誕生
2009年,Goodside剛從大學(xué)畢業(yè)并獲得計(jì)算機(jī)科學(xué)學(xué)位時(shí),對(duì)還處在初級(jí)階段的自然語(yǔ)言處理領(lǐng)域,并沒(méi)有很大的興趣。
他的第一份真正的機(jī)器學(xué)習(xí)工作是在2011年,他當(dāng)時(shí)是約會(huì)應(yīng)用程序 OkCupid 的數(shù)據(jù)科學(xué)家,幫助制定算法,分析單身用戶數(shù)據(jù)并給他們推薦對(duì)象。(該公司是現(xiàn)在備受爭(zhēng)議的A-B測(cè)試的早期擁護(hù)者:2014 年,公司的聯(lián)合創(chuàng)始人為一篇厚顏無(wú)恥的博文題名「我們?cè)谌祟惿砩线M(jìn)行實(shí)驗(yàn)!」)
到2021年底,Goodside轉(zhuǎn)向了另一個(gè)約會(huì)應(yīng)用程序Grindr,在那里他開(kāi)始從事推薦系統(tǒng)、數(shù)據(jù)建模和其他更傳統(tǒng)的機(jī)器學(xué)習(xí)工作。
2015年左右,深度學(xué)習(xí)的成功推動(dòng)了自然語(yǔ)言處理的發(fā)展,文本翻譯和對(duì)話方面也取得了快速進(jìn)步。很快,他辭去了工作,并開(kāi)始對(duì)GPT-3進(jìn)行大量試驗(yàn)。通過(guò)不斷的刺激和挑戰(zhàn),來(lái)嘗試學(xué)習(xí)如何集中它的注意力并找出邊界。
2022年12月,在他的一些提示在網(wǎng)上引起關(guān)注后,Scale AI便聘請(qǐng)他來(lái)幫助與AI模型進(jìn)行交流。該公司的首席執(zhí)行官Alexandr Wang稱這種AI模型為「一種新型的計(jì)算機(jī)」。
Andrej Karpathy:提示工程,帶來(lái)15億碼農(nóng)
最近,重新回歸OpenAI的Karpathy認(rèn)為,在這種全新的編程范式(提示工程)的加持下,程序員的數(shù)量很有可能會(huì)擴(kuò)大到15億左右。

根據(jù)GPT-3的原始論文,LLM可以進(jìn)行上下文學(xué)習(xí),并且可以在提示中用輸入-輸出的例子進(jìn)行「編程」,從而執(zhí)行不同的任務(wù)。

「Language Models are Few-Shot Learners」:https://arxiv.org/abs/2005.14165
隨后,論文「Large Language Models are Zero-Shot Reasoners」和「Large Language Models Are Human-Level Prompt Engineers」證明,我們可以通過(guò)設(shè)計(jì)更好的「提示」,來(lái)對(duì)模型的「解決策略」進(jìn)行編程,從而完成更加復(fù)雜的多步推理任務(wù)。
比如,最著名的「讓我們一步一步地思考」(Let's think step by step),正是出自這里。
而改進(jìn)版的「讓我們一步一步地解決這個(gè)問(wèn)題,以確保我們得到正確的答案」,可以更進(jìn)一步地提升回答的準(zhǔn)確率。
「Large Language Models are Zero-Shot Reasoners」:https://arxiv.org/abs/2205.11916
「Large Language Models Are Human-Level Prompt Engineers」:https://arxiv.org/abs/2211.01910
由于GPT模型本身并沒(méi)有「想要」實(shí)現(xiàn)什么,它們更多是在進(jìn)行模仿。
因此,你必須在提示中給模型提出明確的要求,并把期望的表現(xiàn)闡述清楚。

「Decision Transformer: Reinforcement Learning via Sequence Modeling」:https://arxiv.org/abs/2106.01345
「Just Ask for Generalization」:https://evjang.com/2021/10/23/generalization.html
「在ChatGPT中建立一個(gè)虛擬機(jī)」就是一個(gè)用提示進(jìn)行「編程」的示例。
其中,我們通過(guò)英語(yǔ)來(lái)聲明的規(guī)則和輸入/輸出格式,將GPT調(diào)整到某一特定的角色之上,進(jìn)而完成相應(yīng)的任務(wù)。

「Building A Virtual Machine inside ChatGPT」:https://engraved.blog/building-a-virtual-machine-inside/
在「iOS快捷方式中的ChatGPT——世界上最智能的HomeKit語(yǔ)音助手」中,作者利用自然語(yǔ)言提示制作出的「ChatGPT語(yǔ)音助手」,在能力和個(gè)性化程度上,明顯高于普通的Siri/Alexa/等。

「ChatGPT in an iOS Shortcut — Worlds Smartest HomeKit Voice Assistant」:https://matemarschalko.medium.com/chatgpt-in-an-ios-shortcut-worlds-smartest-homekit-voice-assistant-9a33b780007a
從ChatGPT必應(yīng)遭受注入式打擊之后所暴露出的內(nèi)容來(lái)看,它的「身份」也是通過(guò)「自然語(yǔ)言提示」構(gòu)建和編程的。比如,告訴它是誰(shuí),它知道/不知道什么,以及如何行動(dòng)。

推特地址:https://twitter.com/marvinvonhagen/status/1623658144349011971?lang=en
提示工程:是投機(jī)取巧,還是大勢(shì)所趨?
Karpathy表示,上面的這些例子充分說(shuō)明了「提示」的重要性,以及「提示工程師」的意義是什么。
同樣,在Goodside看來(lái),這項(xiàng)工作代表的不僅僅是一份工作,而是更具革命性的東西——不是計(jì)算機(jī)代碼或人類語(yǔ)言,而是兩者之間的一種新語(yǔ)言——
「這是一種在人類和機(jī)器思維的交匯處進(jìn)行交流的模式。這是一種人類提出推論,機(jī)器負(fù)責(zé)后續(xù)工作的語(yǔ)言,而這種語(yǔ)言是不會(huì)消失的?!?/span>
類似的,賓夕法尼亞大學(xué)沃頓商學(xué)院的技術(shù)和創(chuàng)業(yè)學(xué)教授Ethan Mollick,也今年早些時(shí)候開(kāi)始向他的學(xué)生傳授「提示創(chuàng)作」的藝術(shù),方法是讓他們只使用AI寫一篇短文。
他說(shuō),如果只輸入最基本的提示,比如「寫一篇五個(gè)段落的關(guān)于選擇領(lǐng)導(dǎo)者的文章」,只會(huì)產(chǎn)出乏味、平庸的文章。但最成功的案例是當(dāng)學(xué)生與AI進(jìn)行共同編輯時(shí),學(xué)生告訴AI要更正特定細(xì)節(jié)、更換句子、拋棄無(wú)用的短語(yǔ)、添加更生動(dòng)的細(xì)節(jié),甚至讓AI「修復(fù)最后的結(jié)尾段,讓這篇文章以充滿希望的基調(diào)結(jié)尾?!?/span>
不過(guò),Goodside也指出,在一些AI圈子里,提示工程很快就變成了一個(gè)貶義詞,也就是一種「過(guò)度依賴技巧的狡猾的修補(bǔ)形式」。
還有一些人也質(zhì)疑這個(gè)新角色干不長(zhǎng):人類會(huì)訓(xùn)練AI,而隨著AI的進(jìn)步,人們自己會(huì)把這個(gè)工作也訓(xùn)練沒(méi)的。
華盛頓大學(xué)的Steinert-Threlkeld,就將提示工程師與谷歌早期的「搜索專家」作對(duì)比,他們宣稱有秘密技術(shù)可以找到完美的結(jié)果——但是隨著時(shí)間的推移和搜索引擎的廣泛應(yīng)用,這個(gè)角色毫無(wú)用武之地了。



























