AI 系統(tǒng)架構(gòu)的演進(jìn):LLM → RAG → AI Workflow → AI Agent
AI Agent 是當(dāng)前的一個熱門話題,但并非所有 AI 系統(tǒng)都需要采用這種架構(gòu)。
雖然 Agent 具有自主決策能力,但更簡單、更具成本效益的解決方案往往更適合實際業(yè)務(wù)場景。關(guān)鍵在于根據(jù)具體需求選擇恰當(dāng)?shù)募軜?gòu)方案。
本文將探討大語言模型(LLMs)的最新進(jìn)展,并解析 AI 系統(tǒng)的核心設(shè)計理念。
我們實踐過從不包含示例的提示詞技術(shù)(zero-shot prompting)到思維鏈推理,從基于 RAG 的架構(gòu)到復(fù)雜工作流及 autonomous agents 等不同復(fù)雜度的 LLM 項目。
這個新興領(lǐng)域的術(shù)語體系仍在演進(jìn),不同概念之間的邊界尚未界定,分類標(biāo)準(zhǔn)仍不固定。隨著該領(lǐng)域的發(fā)展,新的框架和工程實踐不斷涌現(xiàn),推動構(gòu)建更可靠的 AI 系統(tǒng)。
為直觀展示不同系統(tǒng)的差異,我們將通過簡歷篩選這個典型案例,揭示不同架構(gòu)層級在能力和系統(tǒng)復(fù)雜度上的非線性躍升。
1.純 LLM 架構(gòu)
純 LLM 本質(zhì)上是互聯(lián)網(wǎng)信息的有損壓縮包,是從其訓(xùn)練數(shù)據(jù)中提取的知識快照。它尤其擅長處理依賴其參數(shù)化知識(即訓(xùn)練階段內(nèi)化的信息)的任務(wù),典型場景包括:總結(jié)小說內(nèi)容、撰寫關(guān)于全球變暖的論述、用 5 歲兒童能理解的語言解釋狹義相對論、或者創(chuàng)作俳句(譯者注:日本有一種特定格式的詩歌,叫做“俳(pái)句”,在形式上堪稱世界文學(xué)中最短的格律詩。)。
但若沒有額外的功能擴(kuò)展,LLM 無法提供實時信息(例如紐約的當(dāng)前氣溫)。這正是純 LLM 與 ChatGPT 等對話式應(yīng)用的區(qū)別 —— 后者通過實時搜索和其他工具增強(qiáng)了核心 LLM 的能力。
不過,并非所有功能增強(qiáng)都需要外部上下文。通過提示詞工程(如上下文學(xué)習(xí)、小樣本學(xué)習(xí)等技術(shù)),LLM 無需檢索外部信息也能處理特定問題。
應(yīng)用示例:
只需采用使用單個示例的提示詞技術(shù)(one-shot prompting)結(jié)合上下文學(xué)習(xí),就能讓 LLM 根據(jù)職位描述對簡歷進(jìn)行「通過/不通過」的二分類判斷。
image.png
2.RAG(檢索增強(qiáng)生成)
檢索方法通過提供相關(guān)上下文來增強(qiáng) LLM 的能力,使其輸出更具時效性、精確性和實用性。借助這一技術(shù),可以讓 LLM 訪問并處理內(nèi)部數(shù)據(jù)。這些上下文信息使 LLM 能夠提取信息、生成摘要并生成響應(yīng)。RAG 還能通過實時數(shù)據(jù)檢索獲取最新信息。
應(yīng)用示例:
在簡歷篩選場景中,通過檢索公司的內(nèi)部數(shù)據(jù)(如工程操作手冊、招聘政策及歷史簡歷資料)來豐富上下文信息,從而做出更準(zhǔn)確的分類判斷。
檢索過程通常需要借助向量化工具、向量數(shù)據(jù)庫和語義搜索等技術(shù)實現(xiàn)。
image.png
3.工具調(diào)用(Tool Use)與 AI 工作流(AI Workflow)
LLM 能夠通過定義明確的路徑實現(xiàn)業(yè)務(wù)流程自動化,這類系統(tǒng)最適合處理結(jié)構(gòu)清晰、標(biāo)準(zhǔn)統(tǒng)一的任務(wù)。
通過使用工具調(diào)用(Tool use)可以實現(xiàn)工作流自動化。通過對接各類 API(包括計算器、日歷、郵件服務(wù)或搜索引擎等),LLM 可以利用可靠的外部工具,而非依賴其存在非確定性的原生能力。
應(yīng)用示例:
這個 AI 工作流可以連接招聘門戶獲取簡歷和職位描述 → 根據(jù)經(jīng)驗、學(xué)歷和技能評估投遞簡歷者的資質(zhì) → 發(fā)送相應(yīng)的郵件回復(fù)(拒信或面試邀請)。
要實現(xiàn)這個簡歷篩選工作流,LLM 需要訪問數(shù)據(jù)庫、郵件 API 和日歷 API,并按照預(yù)設(shè)步驟以編程方式實現(xiàn)全流程自動化。
image.png
4.AI Agent
AI Agent 是具備自主推理能力和決策能力的系統(tǒng)。它們能夠:將任務(wù)分解為多個步驟、根據(jù)需要調(diào)用外部工具、評估執(zhí)行結(jié)果、并自主決定后續(xù)動作(存儲執(zhí)行結(jié)果/請求人工干預(yù)/繼續(xù)執(zhí)行下一步)。
這代表著在工具調(diào)用和 AI 工作流之上的又一層抽象,實現(xiàn)了規(guī)劃和決策的自動化。
與 AI 工作流需要明確的用戶觸發(fā)器(如按鈕點擊)且必須遵循預(yù)設(shè)路徑不同,AI Agent 可以自主啟動工作流,并動態(tài)決定各環(huán)節(jié)的執(zhí)行順序和組合方式。
應(yīng)用示例:
AI Agent 可以管理完整的招聘流程,包括:解析簡歷、通過聊天或郵件協(xié)調(diào)面試時間、安排面試會議、以及處理日程變更等。
這項綜合性任務(wù)要求 LLM 具備以下訪問權(quán)限:數(shù)據(jù)庫、郵件和日歷 API,以及聊天和通知系統(tǒng)。
image.png
5.核心要點
1)并非所有系統(tǒng)都需要 AI Agent
應(yīng)從簡單、可組合的模式入手,按需逐步增加復(fù)雜度。某些場景僅需檢索功能即可滿足需求。以簡歷篩選為例,當(dāng)篩選標(biāo)準(zhǔn)和后續(xù)操作明確時,基礎(chǔ)工作流就能勝任。僅當(dāng)需要更大的自主性以減少人工干預(yù)時,才應(yīng)考慮采用 Agent 方案。
2)注重可靠性而非豐富的功能
LLM 的非確定性特質(zhì)使得構(gòu)建可靠系統(tǒng)頗具挑戰(zhàn)。雖然快速驗證概念(proofs of concept)可行,但將其擴(kuò)展到生產(chǎn)環(huán)境時往往暴露各種問題。建議從沙盒環(huán)境起步,實施統(tǒng)一的測試方法,并通過防護(hù)機(jī)制確保系統(tǒng)可靠性。
原文鏈接:https://www.codelink.io/blog/post/ai-system-development-llm-rag-ai-workflow-agent






































