AI新手必看:30個(gè)術(shù)語(yǔ)帶你快速入門(mén) 原創(chuàng)
人工智能(AI)是繼互聯(lián)網(wǎng)之后最偉大的技術(shù)變革。然而,許多創(chuàng)業(yè)者在試圖擁抱這一變革時(shí),卻常常陷入各種專(zhuān)業(yè)術(shù)語(yǔ)和流行詞匯的泥沼中。今天,我們就來(lái)聊聊創(chuàng)業(yè)者需要了解的30個(gè)最重要的AI術(shù)語(yǔ),幫你輕松避開(kāi)這些“坑”。
一、基礎(chǔ)概念
1. 大語(yǔ)言模型(LLM)
大語(yǔ)言模型是當(dāng)今大多數(shù)AI創(chuàng)新和應(yīng)用背后的技術(shù)。像ChatGPT、Claude、Gemini這些工具,都是基于LLM構(gòu)建的。簡(jiǎn)單來(lái)說(shuō),LLM可以通過(guò)自然語(yǔ)言執(zhí)行各種任務(wù),比如寫(xiě)文章、回答問(wèn)題、生成代碼等。它們就像是一個(gè)超級(jí)智能的“助手”,只要你用自然語(yǔ)言告訴它需求,它就能盡力完成。
2. 提示(Prompt)
提示是傳遞給LLM的請(qǐng)求。與傳統(tǒng)軟件不同,LLM的提示非常靈活,你可以用無(wú)數(shù)種方式讓模型完成同一個(gè)任務(wù)。比如,你想讓LLM幫你總結(jié)一篇報(bào)告,你可以直接說(shuō)“總結(jié)一下這篇報(bào)告”,也可以更詳細(xì)地說(shuō)“提取這篇報(bào)告的關(guān)鍵觀點(diǎn),用簡(jiǎn)潔的語(yǔ)言寫(xiě)出來(lái)”,甚至可以問(wèn)“這篇報(bào)告的核心內(nèi)容是什么?”不同的提示方式可能會(huì)得到不同的結(jié)果。
3. 提示工程(Prompt Engineering)
提示工程就是精心設(shè)計(jì)你的提示,以?xún)?yōu)化任務(wù)的執(zhí)行效果。雖然LLM本身就很強(qiáng)大,但通過(guò)一些技巧,可以讓輸出結(jié)果更適合特定任務(wù)。比如,給出詳細(xì)指令、提供背景信息、使用結(jié)構(gòu)化文本、讓LLM幫助優(yōu)化提示,或者直接給出例子。這些方法都能讓LLM更好地理解你的需求,從而給出更精準(zhǔn)的結(jié)果。
4. 少樣本提示(Few-shot Prompting)
這是提示工程中的一種技巧,即在提示中包含任務(wù)的例子。比如,你想讓LLM幫你總結(jié)論文,你可以先給它幾個(gè)總結(jié)好的論文例子,這樣它就能更好地理解你的需求,生成更符合你期望的結(jié)果。這種方法特別適合那些難以用詳細(xì)指令描述的任務(wù)。
5. 上下文窗口(Context Window)
上下文窗口是LLM能夠處理的最大文本量。雖然更多的指令和上下文通常能讓LLM表現(xiàn)得更好,但它的處理能力是有限的。對(duì)于現(xiàn)代LLM來(lái)說(shuō),這個(gè)上限大約是10萬(wàn)字(相當(dāng)于一本普通書(shū)的長(zhǎng)度)。不過(guò),像Gemini 1.5 Pro這樣的模型可以處理100萬(wàn)字以上。
6. 令牌(Token)
令牌是LLM理解的文本單位。我們看到的是單詞和字符,但LLM看到的是所謂的令牌,即作為單個(gè)實(shí)體處理的字符序列。不同的模型對(duì)文本的分割方式可能不同,你可以通過(guò)一些工具來(lái)探索不同模型是如何處理文本的。
7. 推理(Inference)
推理就是使用LLM生成文本的過(guò)程。LLM生成長(zhǎng)文本時(shí),是一次生成一個(gè)令牌,就像你手機(jī)上的自動(dòng)補(bǔ)全功能一樣。不過(guò),LLM會(huì)不斷選擇下一個(gè)最合適的令牌,直到生成完整的回答。從成本角度看,這意味著每次生成回答時(shí),LLM都需要運(yùn)行多次,每次生成一個(gè)令牌,這可能會(huì)導(dǎo)致成本很高。
8. 參數(shù)(Parameter)
參數(shù)是決定LLM根據(jù)輸入生成什么輸出的數(shù)字。LLM的輸入和輸出之間的關(guān)系由這些參數(shù)定義。小的LLM可能有大約10億個(gè)參數(shù),而大的LLM可能有超過(guò)1000億個(gè)參數(shù)。一般來(lái)說(shuō),參數(shù)越多,模型越“聰明”,但同時(shí)成本也越高,因?yàn)槊總€(gè)參數(shù)都對(duì)應(yīng)計(jì)算機(jī)需要執(zhí)行的操作。
9. 溫度(Temperature)
溫度是控制LLM回答隨機(jī)性的參數(shù)。LLM在生成回答時(shí),會(huì)預(yù)測(cè)所有可能的下一個(gè)令牌的概率(通常有5萬(wàn)到20萬(wàn)個(gè)可能的令牌)。通過(guò)調(diào)整溫度參數(shù),我們可以改變這些概率,讓輸出更隨機(jī)(降低高概率令牌的概率,增加低概率令牌的概率)。
二、風(fēng)險(xiǎn)與防護(hù)
10. 提示注入(Prompt Injection)
提示注入是指有人通過(guò)惡意提示讓LLM違反規(guī)則。LLM的靈活性是一把雙刃劍,惡意用戶(hù)可能會(huì)發(fā)送奇怪的提示,導(dǎo)致LLM的行為不可預(yù)測(cè)甚至產(chǎn)生不良后果。比如,可能會(huì)泄露敏感數(shù)據(jù)、生成有害或冒犯性的輸出,或者通過(guò)API執(zhí)行未經(jīng)授權(quán)的操作。
11. 護(hù)欄(Guardrails)
護(hù)欄是應(yīng)用于LLM輸入和輸出的規(guī)則,用來(lái)降低提示注入的風(fēng)險(xiǎn)。你可以通過(guò)簡(jiǎn)單的基于規(guī)則的過(guò)濾器來(lái)阻止惡意提示,或者使用專(zhuān)門(mén)的LLM來(lái)評(píng)估最終回答,確保它符合要求。
12. 幻覺(jué)(Hallucination)
幻覺(jué)是指LLM編造事實(shí)和引用的行為。雖然在創(chuàng)意寫(xiě)作中這可能很有用,但在許多商業(yè)場(chǎng)景中卻會(huì)帶來(lái)風(fēng)險(xiǎn)。我們可以通過(guò)良好的提示(比如要求它不要編造內(nèi)容)和護(hù)欄(比如驗(yàn)證回答的真實(shí)性)來(lái)減少幻覺(jué)。最有效的方法之一是給模型提供完成特定任務(wù)所需的事實(shí),這就是檢索增強(qiáng)生成(RAG)的作用。
13. 檢索增強(qiáng)生成(Retrieval-Augmented Generation,RAG)
RAG是一種重要的AI工程技術(shù),它可以幫助LLM根據(jù)現(xiàn)實(shí)情況生成回答,并為它們提供一個(gè)專(zhuān)門(mén)且易于更新的知識(shí)庫(kù)。在RAG的工作流程中,首先會(huì)根據(jù)用戶(hù)的輸入,從知識(shí)庫(kù)中檢索相關(guān)的上下文,然后LLM結(jié)合這些上下文生成回答。
14. 語(yǔ)義搜索(Semantic Search)
語(yǔ)義搜索是基于查詢(xún)的含義而不是關(guān)鍵詞進(jìn)行搜索。在RAG工作流程中,確定與用戶(hù)輸入相關(guān)的上下文非常重要,但用戶(hù)的請(qǐng)求通常并不是為關(guān)鍵詞搜索優(yōu)化的。因此,開(kāi)發(fā)者通常會(huì)使用語(yǔ)義搜索,將用戶(hù)的輸入和知識(shí)庫(kù)中的每個(gè)項(xiàng)目轉(zhuǎn)換為數(shù)值表示(即向量),然后通過(guò)數(shù)學(xué)計(jì)算來(lái)確定它們之間的相似性。
15. 嵌入(Embedding)
嵌入是用于語(yǔ)義搜索的向量,它是一組數(shù)字,用來(lái)表示文本的含義。我們可以將它們視為定義文本在概念空間中的位置的坐標(biāo),相似的概念會(huì)聚集在一起,而不同的概念則會(huì)相隔較遠(yuǎn)。這些數(shù)字是由嵌入模型生成的,嵌入模型以文本為輸入,輸出嵌入向量。
16. 文本塊(Chunk)
文本塊是文本的一個(gè)片段。雖然嵌入對(duì)于分析文本非常強(qiáng)大,但它們也有局限性。首先,許多嵌入模型的上下文窗口較?。ɡ?12到8192個(gè)令牌)。其次,它們表示整個(gè)文本輸入的含義,對(duì)于長(zhǎng)序列來(lái)說(shuō)可能會(huì)變得模糊。因此,通常會(huì)將源文檔分解為文本塊,并在這些文本塊上進(jìn)行檢索。
17. 向量數(shù)據(jù)庫(kù)(Vector DB)
向量數(shù)據(jù)庫(kù)是文本塊及其對(duì)應(yīng)嵌入的集合。為了提高檢索效率,每個(gè)文本塊的嵌入會(huì)提前計(jì)算并存儲(chǔ)在向量數(shù)據(jù)庫(kù)中。在生產(chǎn)環(huán)境中,只有用戶(hù)的查詢(xún)需要轉(zhuǎn)換為向量。如今,有許多向量數(shù)據(jù)庫(kù)解決方案,如LlamaIndex、Cohere、Qdrant、Supabase等,這些解決方案通常會(huì)處理搜索功能,因此你不需要從頭開(kāi)始構(gòu)建。
三、智能系統(tǒng)與工具
18. AI代理(AI Agent)
2025年被認(rèn)為是AI代理的元年。雖然人們對(duì)“代理”的定義存在爭(zhēng)議,但所有現(xiàn)代定義都有兩個(gè)共同點(diǎn):首先,AI代理通常是指基于LLM的系統(tǒng);其次,該系統(tǒng)被賦予了可以執(zhí)行操作的工具。這種能力非常重要,因?yàn)樗试SLLM系統(tǒng)不僅為我們處理信息,還可以為我們解決現(xiàn)實(shí)世界的問(wèn)題。
19. 主動(dòng)智能(Agentic AI)
為了避免“AI代理”的爭(zhēng)論,大多數(shù)開(kāi)發(fā)者更傾向于討論主動(dòng)智能系統(tǒng)。也就是說(shuō),不要把智能看作是非黑即白的事情(有或沒(méi)有),而是看作是一個(gè)連續(xù)的譜系。換句話(huà)說(shuō),LLM系統(tǒng)可以擁有從無(wú)(即基于規(guī)則的系統(tǒng))到人類(lèi)水平的智能。
20. 函數(shù)調(diào)用(Function Calling)
由于LLM只能處理令牌,它們通過(guò)函數(shù)調(diào)用來(lái)與外部世界交互。通過(guò)函數(shù)調(diào)用可以執(zhí)行一些操作,比如從天氣API獲取數(shù)據(jù)、搜索谷歌、發(fā)送電子郵件和運(yùn)行Python代碼。如今,大多數(shù)流行的模型都可以直接調(diào)用函數(shù)。例如,如果你使用OpenAI的Responses API,你可以將自定義工具的詳細(xì)信息傳遞給模型,它會(huì)在需要使用該工具時(shí)返回函數(shù)參數(shù)。
21. 模型上下文協(xié)議(Model Context Protocol,MCP)
MCP是一種將工具和上下文連接到LLM的通用方法。LLM的價(jià)值越來(lái)越依賴(lài)于它們獲取正確的上下文和使用正確的工具的能力。然而,為L(zhǎng)LM應(yīng)用添加更多的集成會(huì)使系統(tǒng)更難構(gòu)建和維護(hù)。MCP通過(guò)為所有開(kāi)發(fā)者創(chuàng)建一個(gè)開(kāi)放標(biāo)準(zhǔn)來(lái)減輕這種負(fù)擔(dān)。例如,你不需要為知識(shí)庫(kù)代理實(shí)現(xiàn)一套Google Drive功能,而是可以使用預(yù)先構(gòu)建的并將其連接到你的LLM應(yīng)用。
22. 微調(diào)(Fine-tuning)
微調(diào)是通過(guò)額外的訓(xùn)練將模型適應(yīng)特定用例的過(guò)程。到目前為止,我們討論的構(gòu)建LLM系統(tǒng)的方法是在LLM周?chē)帉?xiě)軟件,而不改變其內(nèi)部機(jī)制。雖然這涵蓋了大多數(shù)AI工程,但有時(shí)還需要額外的定制。微調(diào)的關(guān)鍵好處是,經(jīng)過(guò)微調(diào)的小型模型通??梢詣龠^(guò)大型模型。
23. 蒸餾(Distillation)
蒸餾是一種特殊的微調(diào)方法。這種方法是GPT-4o-mini和Gemini 2.5 Flash等模型背后的技術(shù)。它通過(guò)從較大的教師模型(例如GPT-4o)生成數(shù)據(jù),并對(duì)較小的學(xué)生模型(例如GPT-4o-mini)進(jìn)行微調(diào)來(lái)實(shí)現(xiàn)。
24. 強(qiáng)化學(xué)習(xí)(Reinforcement Learning,RL)
強(qiáng)化學(xué)習(xí)是模型通過(guò)試錯(cuò)學(xué)習(xí)的能力。在微調(diào)模型時(shí),你通常會(huì)使用人類(lèi)或LLM(或兩者)創(chuàng)建的任務(wù)示例來(lái)訓(xùn)練LLM。然而,這并不是計(jì)算機(jī)學(xué)習(xí)的唯一方式。另一種方法是讓模型生成輸出,并對(duì)好的輸出給予獎(jiǎng)勵(lì)(對(duì)壞的輸出則不給予獎(jiǎng)勵(lì))。
25. 基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí)(Reinforcement Learning from Human Feedback,RLHF)
RLHF是一種通過(guò)強(qiáng)化學(xué)習(xí)將LLM的響應(yīng)與人類(lèi)偏好對(duì)齊的方法。一個(gè)著名的應(yīng)用是創(chuàng)建InstructGPT,這是ChatGPT的前身。在這個(gè)過(guò)程中,如果模型生成的響應(yīng)符合人類(lèi)偏好,就會(huì)得到獎(jiǎng)勵(lì)。這使得模型成為一個(gè)“有幫助且無(wú)害”的助手,能夠回答用戶(hù)的各種問(wèn)題。
26. 推理模型(Reasoning Models)
推理模型是一種在響應(yīng)之前可以“思考”的LLM。另一種強(qiáng)化學(xué)習(xí)的應(yīng)用是創(chuàng)建第一個(gè)推理模型,如OpenAI的o1和DeepSeek R1。對(duì)于這些模型,與其獎(jiǎng)勵(lì)人類(lèi)標(biāo)注者偏好的生成響應(yīng),不如獎(jiǎng)勵(lì)模型正確回答數(shù)學(xué)或編程問(wèn)題。推理模型(也稱(chēng)為思考模型)的一個(gè)關(guān)鍵特點(diǎn)是它們會(huì)生成特殊的令牌,這些令牌定義了一個(gè)內(nèi)部獨(dú)白,允許模型在回答之前“思考”問(wèn)題。
27. 測(cè)試時(shí)計(jì)算(Test-time Compute)
測(cè)試時(shí)計(jì)算是指使用LLM的成本。推理模型中的“思考”過(guò)程之所以有效,是因?yàn)樗^的測(cè)試時(shí)計(jì)算擴(kuò)展,簡(jiǎn)單來(lái)說(shuō)就是LLM處理的令牌越多,其響應(yīng)越好。這一發(fā)現(xiàn)是主動(dòng)AI的關(guān)鍵驅(qū)動(dòng)力之一,主動(dòng)AI系統(tǒng)可以通過(guò)閱讀和生成更多令牌來(lái)執(zhí)行極其復(fù)雜的任務(wù)。
28. 訓(xùn)練時(shí)計(jì)算(Train-time Compute)
訓(xùn)練時(shí)計(jì)算是指訓(xùn)練LLM的成本。除了增加令牌外,我們還可以通過(guò)使LLM更大來(lái)提高其性能。這涉及到增加三個(gè)關(guān)鍵要素:模型大小、訓(xùn)練數(shù)據(jù)和計(jì)算能力。就像烹飪一樣,這些要素必須成比例才能獲得更好的結(jié)果。你不能只增加面粉來(lái)烤更多的面包,同樣,你也不能只增加其中一個(gè)關(guān)鍵要素來(lái)獲得更好的LLM。
29. 預(yù)訓(xùn)練(Pre-training)
預(yù)訓(xùn)練是從頭開(kāi)始訓(xùn)練模型的第一步。鑒于現(xiàn)代LLM所需的海量數(shù)據(jù)(約10T令牌,相當(dāng)于約2000萬(wàn)本教科書(shū)),模型是在互聯(lián)網(wǎng)上幾乎所有有用的數(shù)據(jù)上進(jìn)行訓(xùn)練的。這產(chǎn)生了一個(gè)所謂的基礎(chǔ)模型,它是互聯(lián)網(wǎng)的壓縮版本,我們可以對(duì)其進(jìn)行微調(diào)以使其有用。
30. 后訓(xùn)練(Post-training)
后訓(xùn)練是指預(yù)訓(xùn)練之后的任何訓(xùn)練。與我們通常使用的LLM不同,基礎(chǔ)模型對(duì)大多數(shù)應(yīng)用來(lái)說(shuō)并不實(shí)用。然而,它們包含了廣泛且深入的世界知識(shí),我們只需要高效地訪(fǎng)問(wèn)這些知識(shí)。最流行的方法是通過(guò)指令調(diào)優(yōu),這是一種微調(diào)方法,我們教基礎(chǔ)模型如何遵循指令。這為人類(lèi)友好地訪(fǎng)問(wèn)基礎(chǔ)模型中存儲(chǔ)的大量知識(shí)提供了一個(gè)界面。
結(jié)語(yǔ)
大語(yǔ)言模型(LLM)為我們提供了一種全新的通過(guò)軟件解決問(wèn)題的方式。我們通常通過(guò)提示工程、RAG和護(hù)欄在預(yù)訓(xùn)練模型的基礎(chǔ)上構(gòu)建應(yīng)用,有時(shí)我們還可以通過(guò)微調(diào)模型來(lái)滿(mǎn)足特定應(yīng)用的需求。今天,我們介紹了30個(gè)最常見(jiàn)的AI熱詞,希望能幫助你更好地理解這些概念。雖然還有很多內(nèi)容沒(méi)有涵蓋,但希望這篇文章能為你提供一些關(guān)鍵的思路。
本文轉(zhuǎn)載自??Halo咯咯?? 作者:基咯咯
