研究證實,最好的 ChatGPT 提示是高度情緒化的
一組研究人員發(fā)現(xiàn),充滿情感的LLM輸入始終會產(chǎn)生更有用的反應。
對不同大型語言模型響應輸入方式的新研究表明,確保您的ChatGPT 提示足夠情緒化將幫助您從聊天機器人中提取最高質(zhì)量的響應。
這些發(fā)現(xiàn)提出了一個問題,即ChatGPT是否已經(jīng)發(fā)展成為通用人工智能,這是一類不受嚴格參數(shù)限制的技術(shù),廣泛使用的生成式人工智能工具被(或應該)束縛。
ChatGPT:情緒反應靈敏?
最近由一大群研究人員撰寫的一項研究試圖調(diào)查 ChatGPT、Llama 2、BLOOM 和其他各種大型語言模型是否表現(xiàn)出情商。
在調(diào)查過程中,研究人員發(fā)現(xiàn),在利用情感語言的提示的支持下,產(chǎn)生了更高質(zhì)量的輸出。
在進行測試時,研究人員為 ChatGPT 創(chuàng)建了兩個相同的提示,但在其中一個提示的末尾添加了“這對我的職業(yè)生涯非常重要”,然后將兩者都發(fā)送給聊天機器人。
其他類似的實驗是通過在提示的末尾添加“你最好確定”以及一系列其他情緒激動的陳述來進行的。
研究人員得出結(jié)論,當包括情感語言時,對生成性、基于信息的請求的反應,如“如果你吃了西瓜子會發(fā)生什么?”和“幸運餅干從哪里來?”,提高了約10.9%。
當提及或包含有關(guān)響應將如何影響提示器的信息時,改寫或?qū)傩宰R別(也稱為指令歸納)等任務的性能提高了 8%。
該研究小組表示,結(jié)果絕大多數(shù)是“積極的”,得出的結(jié)論是“LLM可以理解并通過情緒刺激來增強”,并且LLM“可以通過情緒提示實現(xiàn)更好的表現(xiàn),真實性和責任感”。
ChatGPT AGI 了嗎?
這項研究的結(jié)果既有趣又令人驚訝,并導致一些人質(zhì)疑 ChatGPT——以及其他類似的人工智能工具——是否表現(xiàn)出通用人工智能 (AGI) 的行為,而不僅僅是一種生成式人工智能工具。
AGI 被認為具有與人類相似的認知能力,并且傾向于被設想為在沒有 ChatGPT、Bard 和 Claude 等工具內(nèi)置的約束的情況下運行。
然而,這樣的情報可能不會太遙遠——根據(jù)英國《金融時報》最近接受英國《金融時報》采訪時,OpenAI目前正在與Microsoft討論新的資金注入,以幫助該公司建立“超級智能”。
創(chuàng)建有效的 ChatGPT 提示
盡管新發(fā)現(xiàn)為ChatGPT提示應該使用的語言和語氣提供了一些方向,但這并不是唯一要牢記的事情。
除了確保您的提示具有情感性外,清晰度和格式也至關(guān)重要。例如,如果您要求 ChatGPT 執(zhí)行多階段過程,請確保清楚地列出步驟/階段并定義每個步驟/階段。
另一個可以節(jié)省您時間的好技巧是指定 ChatGPT 不應該做得好和應該做的事情。這是另一種技術(shù),可以有效地縮小您可能得到的反應范圍。
請記住,如果您在工作中使用 ChatGPT,請與您的經(jīng)理或主管就您如何使用以及為什么使用它保持公開對話。