偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

六種LLM定制開發(fā)基本策略:提示工程、解碼策略、RAG、代理、微調(diào)和RLHF

譯文 精選
人工智能
本文將歸納對(duì)比LLM定制開發(fā)常用的六種基本策略,包括提示工程、解碼策略、RAG、代理、微調(diào)和RLHF。

譯者 | 朱先忠

審校 | 重樓

為什么要定制LLM?

大型語言模型是基于自監(jiān)督學(xué)習(xí)預(yù)訓(xùn)練的深度學(xué)習(xí)模型,需要大量的訓(xùn)練數(shù)據(jù)資源、訓(xùn)練時(shí)間并保存大量參數(shù)。尤其是在過去2年里,LLM徹底改變了自然語言處理,在理解和生成類似人類的文本方面表現(xiàn)出色。然而,這些通用模型的開箱即用性能可能并不總是能滿足特定的業(yè)務(wù)需求或領(lǐng)域要求。LLM本身無法回答依賴于專有公司數(shù)據(jù)或閉卷設(shè)置的問題;因此,LLM當(dāng)前主要應(yīng)用在一些相對(duì)通用的領(lǐng)域

由于需要大量的訓(xùn)練數(shù)據(jù)和資源;所以,從頭開始訓(xùn)練LLM模型對(duì)于中小型團(tuán)隊(duì)來說基本上是不可行的。因此,近年來開發(fā)了各種各樣的LLM定制策略,以針對(duì)需要專業(yè)知識(shí)的各種場(chǎng)景調(diào)整模型。

定制策略大致可以分為兩種類型:

  • 使用凍結(jié)模型:這些技術(shù)不需要更新模型參數(shù),通常通過情境學(xué)習(xí)或提示工程來實(shí)現(xiàn)。這樣的定制策略具有明顯的成本效益,因?yàn)樗鼈兛梢愿淖兡P偷男袨槎鵁o需大量的訓(xùn)練成本,因此在行業(yè)和學(xué)術(shù)界都得到了廣泛的探索,每天都會(huì)發(fā)表新的研究論文。
  • 更新模型參數(shù):這是一種相對(duì)資源密集型的方法,需要使用為預(yù)期目的設(shè)計(jì)的自定義數(shù)據(jù)集來調(diào)整預(yù)訓(xùn)練的LLM。這包括微調(diào)和從人類反饋中進(jìn)行強(qiáng)化學(xué)習(xí)RLHF等流行技術(shù)。這兩種廣泛的定制范式分支出各種專門的技術(shù),包括LoRA微調(diào)、思想鏈、檢索增強(qiáng)生成、ReAct和代理框架。每種技術(shù)在計(jì)算資源、實(shí)施復(fù)雜性和性能改進(jìn)方面都有獨(dú)特的優(yōu)勢(shì)和權(quán)衡。

如何選擇LLM?

定制LLM的第一步是選擇合適的基礎(chǔ)模型作為基準(zhǔn)。社區(qū)平臺(tái)(例如“Huggingface”)提供了由頂級(jí)公司或社區(qū)貢獻(xiàn)的各種開源預(yù)訓(xùn)練模型,例如Meta的Llama系列和Google的Gemini。Huggingface還提供排行榜,例如“Open LLM Leaderboard”,用于根據(jù)行業(yè)標(biāo)準(zhǔn)指標(biāo)和任務(wù)(例如MMLU)比較LLM。云提供商(例如AWS)和AI公司(例如OpenAI和Anthropic)也提供對(duì)專有模型的訪問權(quán)限,這些模型通常是付費(fèi)服務(wù)且訪問權(quán)限受限。以下因素是選擇LLM時(shí)需要考慮的要點(diǎn)。

  • 開源或?qū)S心P停洪_源模型允許完全定制和自托管,但需要技術(shù)專長(zhǎng),而專有模型提供即時(shí)訪問,并且通常提供更好的質(zhì)量響應(yīng),但成本更高。
  • 任務(wù)和指標(biāo):模型擅長(zhǎng)于不同的任務(wù),包括問答、總結(jié)、代碼生成等。比較基準(zhǔn)指標(biāo)并在特定領(lǐng)域的任務(wù)上進(jìn)行測(cè)試以確定合適的模型。
  • 架構(gòu):一般來說,僅使用解碼器的模型(GPT系列)在文本生成方面表現(xiàn)更好,而使用編碼器-解碼器的模型(T5)在翻譯方面表現(xiàn)良好。越來越多的架構(gòu)涌現(xiàn)并顯示出有希望的結(jié)果,例如混合專家MoE模型“DeepSeek”。
  • 參數(shù)數(shù)量和大?。狠^大的模型(70B-175B個(gè)參數(shù))性能更好,但需要更多的計(jì)算能力。較小的模型(7B-13B)運(yùn)行速度更快且更便宜,但功能可能會(huì)有所降低。確定基礎(chǔ)LLM后,讓我們來探索6種最常見的LLM定制策略,按資源消耗從少到多的順序排列依次是
  • 提示工程
  • 解碼和采樣策略
  • 檢索增強(qiáng)生成
  • 代理
  • 微調(diào)
  • 根據(jù)人類反饋進(jìn)行強(qiáng)化學(xué)習(xí)如果更喜歡通過視頻了解上述這些概念,請(qǐng)查看我的視頻“簡(jiǎn)要解釋6種常見的LLM定制策略”。

LLM定制技巧

1. 提示工程

提示是發(fā)送給LLM以引出AI生成的響應(yīng)的輸入文本,它可以由指令、上下文、輸入數(shù)據(jù)和輸出指示組成。

  • 指令:這提供了模型應(yīng)如何執(zhí)行的任務(wù)描述或說明。
  • 上下文:這是指導(dǎo)模型在一定范圍內(nèi)做出反應(yīng)的外部信息。
  • 輸入數(shù)據(jù):這是想要響應(yīng)的輸入。
  • 輸出指示器:指定輸出類型或格式。提示工程涉及戰(zhàn)略性地設(shè)計(jì)這些提示組件以塑造和控制模型的響應(yīng)?;咎崾竟こ碳夹g(shù)包括零次提示、一次提示和少量提示三種類型。用戶可以在與LLM交互時(shí)直接實(shí)施基本提示工程技術(shù),使其成為一種將模型行為與新目標(biāo)對(duì)齊的有效方法。
    由于提示工程的效率和有效性,人們探索和開發(fā)了更復(fù)雜的方法來推進(jìn)提示的邏輯結(jié)構(gòu)。
  • 思維鏈(CoT要求LLM將復(fù)雜的推理任務(wù)分解為逐步的思維過程,以提高解決多步驟問題的能力。每一步都明確地揭示其推理結(jié)果,作為其后續(xù)步驟的先導(dǎo)背景,直至得出答案。
  • 思維樹從CoT延伸而來,通過考慮多個(gè)不同的推理分支和自我評(píng)估選擇來決定下一步最佳行動(dòng)。它對(duì)于涉及初步?jīng)Q策、未來戰(zhàn)略和多種解決方案探索的任務(wù)更為有效。
  • 自動(dòng)推理和工具使用ART建立在CoT流程之上,它解構(gòu)復(fù)雜的任務(wù)并允許模型使用預(yù)定義的外部工具(如搜索和代碼生成)從任務(wù)庫中選擇少量樣本。
  • 協(xié)同推理和行動(dòng)ReAct將推理軌跡與行動(dòng)空間相結(jié)合,其中模型搜索行動(dòng)空間并根據(jù)環(huán)境觀察確定下一個(gè)最佳行動(dòng)。CoT和ReAct等技術(shù)通常與Agentic工作流結(jié)合使用以增強(qiáng)其功能。這些技術(shù)將在下面的代理”部分更詳細(xì)地介紹。

2. 解碼與采樣策略

解碼策略可以在模型推理時(shí)通過推理參數(shù)(例如溫度、top p、top k)進(jìn)行控制,從而確定模型響應(yīng)的隨機(jī)性和多樣性。貪婪搜索、波束搜索和采樣是自回歸模型生成的三種常見解碼策略。

在自回歸生成過程中,LLM根據(jù)前一個(gè)符號(hào)所決定的候選符號(hào)的概率分布,一次輸出一個(gè)符號(hào)。默認(rèn)情況下,會(huì)應(yīng)用貪婪搜索來生成具有最高概率的下一個(gè)符號(hào)。

相比之下,波束搜索解碼會(huì)考慮次優(yōu)標(biāo)記的多個(gè)假設(shè),并選擇文本序列中所有標(biāo)記中組合概率最高的假設(shè)。下面的代碼片段使用轉(zhuǎn)換庫在模型生成過程中指定波束路徑的數(shù)量(例如,num_beams=5考慮5個(gè)不同的假設(shè))。

from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained(tokenizer_name)
inputs = tokenizer(prompt, return_tensors="pt")
model = AutoModelForCausalLM.from_pretrained(model_name)
outputs = model.generate(**inputs, num_beams=5)

采樣策略是通過調(diào)整這些推理參數(shù)來控制模型響應(yīng)隨機(jī)性的第三種方法:

  • 溫度:降低溫度可增加生成高概率單詞的可能性并降低生成低概率單詞的可能性,從而使概率分布更加清晰。當(dāng)溫度等于0時(shí),它相當(dāng)于貪婪搜索(最沒有創(chuàng)造力);當(dāng)溫度等于1時(shí),它會(huì)產(chǎn)生最具創(chuàng)造力的輸出。
  • 前K個(gè)采樣:此方法篩選出K個(gè)最有可能的下一個(gè)標(biāo)記,并在這些標(biāo)記之間重新分配概率。然后,模型從這組篩選出的標(biāo)記中進(jìn)行采樣。
  • 前P采樣:前P采樣不是從K個(gè)最可能的標(biāo)記中采樣,而是從累積概率超過閾值p的最小可能標(biāo)記集中進(jìn)行選擇。

下面的示例代碼片段從前50個(gè)最可能的標(biāo)記(top_k=50)中抽樣,累積概率高于0.95(top_p=0.95):

sample_outputs = model.generate(
 **model_inputs,
 max_new_tokens=40,
 do_sample=True,
 top_k=50,
 top_p=0.95,
 num_return_sequences=3,
) 

3. RAG

檢索增強(qiáng)生成RAG最初在論文知識(shí)密集型NLP任務(wù)的檢索增強(qiáng)生成中提出,已被證明是一種有前途的解決方案,它整合了外部知識(shí),并在處理特定領(lǐng)域或?qū)I(yè)查詢時(shí)減少了常見的LLM“幻覺”問題。RAG允許從知識(shí)領(lǐng)域動(dòng)態(tài)提取相關(guān)信息,并且通常不需要大量訓(xùn)練來更新LLM參數(shù);因此,它是一種經(jīng)濟(jì)高效的策略,可將通用LLM應(yīng)用于專業(yè)領(lǐng)域。

RAG系統(tǒng)可分解為檢索和生成階段。檢索過程的目標(biāo)是通過對(duì)外部知識(shí)進(jìn)行分塊、創(chuàng)建嵌入、索引和相似性搜索,在知識(shí)庫中找到與用戶查詢密切相關(guān)的內(nèi)容。

  1. 分塊:將文檔分成幾個(gè)較小的段,每個(gè)段包含不同的信息單元。
  2. 創(chuàng)建嵌入:嵌入模型將每個(gè)信息塊壓縮為向量表示。用戶查詢也通過相同的向量化過程轉(zhuǎn)換為其向量表示,以便可以在同一維空間中比較用戶查詢。
  3. 索引:此過程將這些文本塊及其向量嵌入存儲(chǔ)為鍵值對(duì),從而實(shí)現(xiàn)高效且可擴(kuò)展的搜索功能。對(duì)于超出內(nèi)存容量的大型外部知識(shí)庫,向量數(shù)據(jù)庫可提供高效的長(zhǎng)期存儲(chǔ)。
  4. 相似性搜索:計(jì)算查詢嵌入和文本塊嵌入之間的相似度分?jǐn)?shù),用于搜索與用戶查詢高度相關(guān)的信息。

然后,RAG系統(tǒng)的生成過程將檢索到的信息與用戶查詢相結(jié)合,形成增強(qiáng)查詢,該查詢被解析到LLM以生成上下文豐富的響應(yīng)。

關(guān)鍵代碼片斷

在基于RAG系統(tǒng)的關(guān)鍵實(shí)現(xiàn)代碼中,首先指定LLM和嵌入模型,然后執(zhí)行將外部知識(shí)庫分塊為文檔的集合的步驟。然后,文檔創(chuàng)建索引,基于索引定義查詢引擎,并使用用戶提示查詢查詢引擎

from llama_index.llms.openai import OpenAI
from llama_index.embeddings.openai import OpenAIEmbedding
from llama_index.core import VectorStoreIndex

Settings.llm = OpenAI(model="gpt-3.5-turbo")
Settings.embed_model="BAAI/bge-small-en-v1.5"

document = Document(text="\\n\\n".join([doc.text for doc in documents]))
index = VectorStoreIndex.from_documents([document]) 
query_engine = index.as_query_engine()
response = query_engine.query(
 "Tell me about LLM customization strategies."
)
  • 上面的例子展示了一個(gè)簡(jiǎn)單的RAG系統(tǒng)。高級(jí)RAG在此基礎(chǔ)上進(jìn)行了改進(jìn),引入了預(yù)檢索和后檢索策略,以減少諸如檢索和生成過程之間協(xié)同作用有限等缺陷。例如,重新排序技術(shù)使用能夠理解雙向上下文的模型對(duì)檢索到的信息進(jìn)行重新排序,并與知識(shí)圖譜集成以實(shí)現(xiàn)高級(jí)查詢路由。

4. 代理

LLM代理(Agent是2024年的熱門話題,并且很可能在2025年繼續(xù)成為GenAI領(lǐng)域的主要焦點(diǎn)。與RAG相比,Agent擅長(zhǎng)創(chuàng)建查詢路線和規(guī)劃基于LLM的工作流程,具有以下優(yōu)勢(shì):

  • 維護(hù)先前模型生成的響應(yīng)的記憶和狀態(tài)。
  • 根據(jù)特定標(biāo)準(zhǔn)利用各種工具。此工具使用功能使代理有別于基本RAG系統(tǒng),因?yàn)樗x予LLM對(duì)工具選擇的獨(dú)立控制權(quán)。
  • 將復(fù)雜的任務(wù)分解為較小的步驟并規(guī)劃一系列操作。
  • 與其他代理協(xié)作以形成協(xié)調(diào)系統(tǒng)。

多種情境學(xué)習(xí)技術(shù)(例如CoT、ReAct)可通過Agentic框架實(shí)現(xiàn),接下來我們將更詳細(xì)地討論ReAct。ReAct代表“語言模型中的協(xié)同推理和行動(dòng)”,由三個(gè)關(guān)鍵元素組成——行動(dòng)、想法和觀察。該框架由普林斯頓大學(xué)的谷歌研究中心推出,建立在思想鏈的基礎(chǔ)上,將推理步驟與行動(dòng)空間相結(jié)合,從而實(shí)現(xiàn)工具使用和函數(shù)調(diào)用。此外,ReAct框架強(qiáng)調(diào)根據(jù)環(huán)境觀察確定下一個(gè)最佳行動(dòng)。

原始論文中的舉例展示了ReAct的內(nèi)部工作過程,其中LLM生成第一個(gè)想法并通過調(diào)用函數(shù)“Search [Apple Remote]”來采取行動(dòng),然后觀察其第一個(gè)輸出的反饋。第二個(gè)想法基于之前的觀察,因此導(dǎo)致不同的動(dòng)作“Search [Front Row]”。這個(gè)過程不斷迭代直到達(dá)到目標(biāo)。研究表明,ReAct通過與簡(jiǎn)單的維系百科API交互,克服了在思維鏈推理中經(jīng)常觀察到的幻覺和錯(cuò)誤傳播問題。此外,通過實(shí)施決策跟蹤,ReAct框架還提高了模型的可解釋性、可信度和可診斷性。

示例來自論文ReAct:語言模型中的協(xié)同推理和行動(dòng)(Yu等人,2022年)

關(guān)鍵代碼片段

接下來的代碼將演示使用基于ReAct的代理llamaindex的關(guān)鍵代碼片段。首先,它定義了兩個(gè)函數(shù)(multiply和add)。其次,將這兩個(gè)函數(shù)封裝為FunctionTool,形成代理的動(dòng)作空間并根據(jù)其推理執(zhí)行。

from llama_index.core.agent import ReActAgent
from llama_index.core.tools import FunctionTool
# 創(chuàng)建基本函數(shù)工具
def multiply(a: float, b: float) -> float:
 return a * b
multiply_tool = FunctionTool.from_defaults(fn=multiply)
def add(a: float, b: float) -> float:
 return a + b
add_tool = FunctionTool.from_defaults(fn=add)
agent = ReActAgent.from_tools([multiply_tool, add_tool], llm=llm, verbose=True)

代理工作流與自我反思或自我糾正相結(jié)合時(shí),其優(yōu)勢(shì)更為顯著。這是一個(gè)日益發(fā)展的領(lǐng)域,人們正在探索各種代理架構(gòu)。例如,Reflexion框架通過提供來自環(huán)境的口頭反饋摘要并將反饋存儲(chǔ)在模型的內(nèi)存中來促進(jìn)迭代學(xué)習(xí);CRITIC框架使凍結(jié)的LLM能夠通過與外部工具(如代碼解釋器和API調(diào)用)交互來進(jìn)行自我驗(yàn)證。

5. 微調(diào)

微調(diào)是輸入小眾和專業(yè)數(shù)據(jù)集來修改LLM,使其更符合某個(gè)目標(biāo)的過程。它不同于提示工程和RAG,因?yàn)樗梢愿翷LM權(quán)重和參數(shù)。完全微調(diào)是指通過反向傳播更新預(yù)訓(xùn)練LLM的所有權(quán)重,這需要大量?jī)?nèi)存來存儲(chǔ)所有權(quán)重和參數(shù),并且可能會(huì)顯著降低其他任務(wù)的能力(即災(zāi)難性遺忘)。因此,PEFT(或參數(shù)高效微調(diào))被更廣泛地用于緩解這些問題,同時(shí)節(jié)省模型訓(xùn)練的時(shí)間和成本。PEFT方法有三類:

  • 選擇性:選擇初始LLM參數(shù)的子集進(jìn)行微調(diào),與其他PEFT方法相比,這可能需要更多的計(jì)算。
  • 重新參數(shù)化:通過訓(xùn)練低秩表示的權(quán)重來調(diào)整模型權(quán)重。例如,低秩自適應(yīng)LoRA就屬于此類,它通過使用兩個(gè)較小的矩陣表示權(quán)重更新來加速微調(diào)。
  • 附加:向模型添加額外的可訓(xùn)練層,包括適配器和軟提示等技術(shù)。微調(diào)過程與深度學(xué)習(xí)訓(xùn)練過程類似,需要以下輸入內(nèi)容
  • 訓(xùn)練和評(píng)估數(shù)據(jù)集
  • 訓(xùn)練參數(shù)定義超參數(shù),例如學(xué)習(xí)率、優(yōu)化器
  • 預(yù)訓(xùn)練的LLM模型
  • 計(jì)算算法應(yīng)該優(yōu)化的指標(biāo)和目標(biāo)函數(shù)

關(guān)鍵代碼片段

下面是使用轉(zhuǎn)換器Trainer實(shí)現(xiàn)微調(diào)的關(guān)鍵代碼片段示例。

from transformers import TrainingArguments, Trainer

training_args = TrainingArguments(
  output_dir=output_dir,
  learning_rate=1e-5,
  eval_strategy="epoch"
)

trainer = Trainer(
 model=model,
 args=training_args,
 train_dataset=train_dataset,
 eval_dataset=eval_dataset,
 compute_metrics=compute_metrics,
)

trainer.train()

微調(diào)具有廣泛的使用場(chǎng)景。例如,指令微調(diào)通過對(duì)提示完成對(duì)進(jìn)行訓(xùn)練來優(yōu)化LLM的對(duì)話和遵循指令的能力。另一個(gè)例子是領(lǐng)域自適應(yīng),這是一種無監(jiān)督微調(diào)方法,可幫助LLM專注于特定的知識(shí)領(lǐng)域。

6. RLHF

基于人類反饋的強(qiáng)化學(xué)習(xí)RLHF是一種基于人類偏好對(duì)LLM進(jìn)行微調(diào)的強(qiáng)化學(xué)習(xí)技術(shù)。RLHF通過基于人類反饋訓(xùn)練獎(jiǎng)勵(lì)模型來運(yùn)行,并使用該模型作為獎(jiǎng)勵(lì)函數(shù)通過PPO(近端策略優(yōu)化)優(yōu)化強(qiáng)化學(xué)習(xí)策略。該過程需要兩組訓(xùn)練數(shù)據(jù):用于訓(xùn)練獎(jiǎng)勵(lì)模型的偏好數(shù)據(jù)集和用于強(qiáng)化學(xué)習(xí)循環(huán)的提示數(shù)據(jù)集。

讓我們將其分解為如下幾個(gè)步驟:

  1. 收集由人工標(biāo)注者標(biāo)注的偏好數(shù)據(jù)集,人工標(biāo)注者根據(jù)人類偏好對(duì)模型生成的不同完成情況進(jìn)行評(píng)分。偏好數(shù)據(jù)集的一個(gè)示例格式為{input_text,candidate1,candidate2,human_preference},表示哪個(gè)候選答案是首選。
  2. 使用偏好數(shù)據(jù)集訓(xùn)練獎(jiǎng)勵(lì)模型,獎(jiǎng)勵(lì)模型本質(zhì)上是一個(gè)回歸模型,它輸出一個(gè)標(biāo)量,表示模型生成的響應(yīng)的質(zhì)量。獎(jiǎng)勵(lì)模型的目標(biāo)是最大化獲勝候選人和失敗候選人之間的分?jǐn)?shù)。
  3. 在強(qiáng)化學(xué)習(xí)循環(huán)中使用獎(jiǎng)勵(lì)模型來微調(diào)LLM。目標(biāo)是更新策略,以便LLM可以生成響應(yīng),從而最大化獎(jiǎng)勵(lì)模型產(chǎn)生的獎(jiǎng)勵(lì)。此過程利用提示數(shù)據(jù)集,該數(shù)據(jù)集是格式為{prompt,response,rewards}的提示的集合。

關(guān)鍵代碼片段

開源庫Trlx在實(shí)現(xiàn)RLHF中被廣泛應(yīng)用,們提供了一個(gè)展示基本RLHF設(shè)置的模板代碼:

  1. 從預(yù)訓(xùn)練檢查點(diǎn)初始化基礎(chǔ)模型和標(biāo)記器
  2. 配置PPO超參數(shù)PPOConfig,如學(xué)習(xí)率、時(shí)期和批次大小
  3. PPOTrainer通過組合模型、標(biāo)記器和訓(xùn)練數(shù)據(jù)來創(chuàng)建PPO訓(xùn)練器
  4. 訓(xùn)練循環(huán)使用step()方法迭代更新模型,以優(yōu)化從查詢和模型響應(yīng)計(jì)算出的回報(bào)
# trl: 轉(zhuǎn)換器強(qiáng)化學(xué)習(xí)庫
from trl import PPOTrainer, PPOConfig, AutoModelForSeq2SeqLMWithValueHead
from trl import create_reference_model
from trl.core import LengthSampler

#啟動(dòng)預(yù)先訓(xùn)練好的模型和標(biāo)記器
model = AutoModelForCausalLMWithValueHead.from_pretrained(config.model_name)
tokenizer = AutoTokenizer.from_pretrained(config.model_name)

#定義PPO算法的超參數(shù)
config = PPOConfig(
 model_name=model_name, 
 learning_rate=learning_rate,
 ppo_epochs=max_ppo_epochs,
 mini_batch_size=mini_batch_size,
 batch_size=batch_size
)

# 根據(jù)模型啟動(dòng)PPO訓(xùn)練師
ppo_trainer = PPOTrainer(
 cnotallow=config, 
 model=ppo_model, 
 tokenizer=tokenizer, 
 dataset=dataset["train"],
 data_collator=collator
) 

# ppo_訓(xùn)練器通過獎(jiǎng)勵(lì)進(jìn)行迭代更新
ppo_trainer.step(query_tensors, response_tensors, rewards)

RLHF被廣泛用于將模型響應(yīng)與人類偏好對(duì)齊。常見使用場(chǎng)景包括減少響應(yīng)毒性和模型幻覺。然而,它的缺點(diǎn)是需要大量人工注釋的數(shù)據(jù)以及與策略優(yōu)化相關(guān)的計(jì)算成本。因此,引入了諸如AI反饋強(qiáng)化學(xué)習(xí)和直接偏好優(yōu)化DPO之類的替代方案來緩解這些限制。

總結(jié)

本文簡(jiǎn)單介紹了六種基本的LLM定制策略,包括提示工程、解碼策略、RAG、Agent、微調(diào)和RLHF。希望這對(duì)理解每種策略的優(yōu)缺點(diǎn)以及如何根據(jù)實(shí)際應(yīng)用場(chǎng)景實(shí)施這些策略有所幫助。

譯者介紹

朱先忠,51CTO社區(qū)編輯,51CTO專家博客、講師,濰坊一所高校計(jì)算機(jī)教師,自由編程界老兵一枚。

原文標(biāo)題:6 Common LLM Customization Strategies Briefly Explained,作者:Destin Gong

責(zé)任編輯:華軒 來源: 51CTO
相關(guān)推薦

2024-01-22 08:53:00

策略任務(wù)RocketMQ

2011-03-31 14:53:13

數(shù)據(jù)中心節(jié)能

2024-02-26 11:12:33

定時(shí)任務(wù)線程

2024-11-11 06:20:00

緩存開發(fā)

2022-06-01 23:30:04

漏洞網(wǎng)絡(luò)安全移動(dòng)攻擊

2024-06-11 08:21:26

2021-12-10 13:08:31

數(shù)據(jù)倉庫BI數(shù)據(jù)存儲(chǔ)

2024-04-19 12:50:58

人工智能OpenAI

2021-07-06 14:07:59

數(shù)據(jù)存儲(chǔ)存儲(chǔ)合規(guī)性

2019-09-12 09:22:58

Nginx負(fù)載均衡服務(wù)器

2024-06-06 16:41:38

2024-04-02 08:07:44

2025-05-20 06:00:00

AI人工智能RAG

2024-01-02 14:56:37

K8s部署應(yīng)用程序

2023-10-16 12:51:32

2024-05-06 12:45:58

2023-08-14 15:03:34

2025-05-22 01:00:00

2025-05-06 10:05:23

2011-06-23 18:57:10

網(wǎng)站推廣
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)