AI 系統(tǒng)架構的演進:LLM → RAG → AI Workflow → AI Agent 原創(chuàng) 精華
編者按: 當前 AI 系統(tǒng)建設中的一大痛點是:盲目追求先進技術而忽視業(yè)務實際需求,導致系統(tǒng)過度復雜、成本高昂、可靠性差。許多團隊在 Agent 熱潮中迷失方向,不知道何時該用簡單的 LLM,何時需要 RAG,什么場景下才真正需要智能體。
文章通過簡歷篩選這一典型應用場景,系統(tǒng)闡述了 AI 系統(tǒng)發(fā)展的四個核心階段:從最基礎的純 LLM 架構,到增強檢索能力的 RAG 系統(tǒng),再到具備工具調(diào)用能力的 AI 工作流,最終發(fā)展為具有自主決策能力的 AI Agent。作者特別強調(diào),每個架構層級都有其適用場景和技術邊界 —— 簡單的分類任務可能只需要基礎的提示詞工程,而復雜的端到端業(yè)務流程才需要 Agent 的自主規(guī)劃能力。我們在追求功能豐富性的同時,必須優(yōu)先考慮系統(tǒng)的可靠性和穩(wěn)定性。
作者 | codelink
編譯 | 岳揚
AI Agent 是當前的一個熱門話題,但并非所有 AI 系統(tǒng)都需要采用這種架構。
雖然 Agent 具有自主決策能力,但更簡單、更具成本效益的解決方案往往更適合實際業(yè)務場景。關鍵在于根據(jù)具體需求選擇恰當?shù)募軜嫹桨浮?/p>
本文將探討大語言模型(LLMs)的最新進展,并解析 AI 系統(tǒng)的核心設計理念。
我們實踐過從不包含示例的提示詞技術(zero-shot prompting)到思維鏈推理,從基于 RAG 的架構到復雜工作流及 autonomous agents 等不同復雜度的 LLM 項目。
這個新興領域的術語體系仍在演進,不同概念之間的邊界尚未界定,分類標準仍不固定。隨著該領域的發(fā)展,新的框架和工程實踐不斷涌現(xiàn),推動構建更可靠的 AI 系統(tǒng)。
為直觀展示不同系統(tǒng)的差異,我們將通過簡歷篩選這個典型案例,揭示不同架構層級在能力和系統(tǒng)復雜度上的非線性躍升。
01 純 LLM 架構
純 LLM 本質上是互聯(lián)網(wǎng)信息的有損壓縮包,是從其訓練數(shù)據(jù)中提取的知識快照。 它尤其擅長處理依賴其參數(shù)化知識(即訓練階段內(nèi)化的信息)的任務,典型場景包括:總結小說內(nèi)容、撰寫關于全球變暖的論述、用 5 歲兒童能理解的語言解釋狹義相對論、或者創(chuàng)作俳句(譯者注:日本有一種特定格式的詩歌,叫做“俳(pái)句”,在形式上堪稱世界文學中最短的格律詩。)。
但若沒有額外的功能擴展,LLM 無法提供實時信息(例如紐約的當前氣溫)。這正是純 LLM 與 ChatGPT 等對話式應用的區(qū)別 —— 后者通過實時搜索和其他工具增強了核心 LLM 的能力。
不過,并非所有功能增強都需要外部上下文。通過提示詞工程(如上下文學習、小樣本學習等技術),LLM 無需檢索外部信息也能處理特定問題。
應用示例:
只需采用使用單個示例的提示詞技術(one-shot prompting)結合上下文學習,就能讓 LLM 根據(jù)職位描述對簡歷進行「通過/不通過」的二分類判斷。
02 RAG(檢索增強生成)
檢索方法通過提供相關上下文來增強 LLM 的能力,使其輸出更具時效性、精確性和實用性。 借助這一技術,可以讓 LLM 訪問并處理內(nèi)部數(shù)據(jù)。這些上下文信息使 LLM 能夠提取信息、生成摘要并生成響應。RAG 還能通過實時數(shù)據(jù)檢索獲取最新信息。
應用示例:
在簡歷篩選場景中,通過檢索公司的內(nèi)部數(shù)據(jù)(如工程操作手冊、招聘政策及歷史簡歷資料)來豐富上下文信息,從而做出更準確的分類判斷。
檢索過程通常需要借助向量化工具、向量數(shù)據(jù)庫和語義搜索等技術實現(xiàn)。
03 工具調(diào)用(Tool Use)與 AI 工作流(AI Workflow)
LLM 能夠通過定義明確的路徑實現(xiàn)業(yè)務流程自動化,這類系統(tǒng)最適合處理結構清晰、標準統(tǒng)一的任務。
通過使用工具調(diào)用(Tool use)可以實現(xiàn)工作流自動化。通過對接各類 API(包括計算器、日歷、郵件服務或搜索引擎等),LLM 可以利用可靠的外部工具,而非依賴其存在非確定性的原生能力。
應用示例:
這個 AI 工作流可以連接招聘門戶獲取簡歷和職位描述 → 根據(jù)經(jīng)驗、學歷和技能評估投遞簡歷者的資質 → 發(fā)送相應的郵件回復(拒信或面試邀請)。
要實現(xiàn)這個簡歷篩選工作流,LLM 需要訪問數(shù)據(jù)庫、郵件 API 和日歷 API,并按照預設步驟以編程方式實現(xiàn)全流程自動化。
04 AI Agent
AI Agent 是具備自主推理能力和決策能力的系統(tǒng)。 它們能夠:將任務分解為多個步驟、根據(jù)需要調(diào)用外部工具、評估執(zhí)行結果、并自主決定后續(xù)動作(存儲執(zhí)行結果/請求人工干預/繼續(xù)執(zhí)行下一步)。
這代表著在工具調(diào)用和 AI 工作流之上的又一層抽象,實現(xiàn)了規(guī)劃和決策的自動化。
與 AI 工作流需要明確的用戶觸發(fā)器(如按鈕點擊)且必須遵循預設路徑不同,AI Agent 可以自主啟動工作流,并動態(tài)決定各環(huán)節(jié)的執(zhí)行順序和組合方式。
應用示例:
AI Agent 可以管理完整的招聘流程,包括:解析簡歷、通過聊天或郵件協(xié)調(diào)面試時間、安排面試會議、以及處理日程變更等。
這項綜合性任務要求 LLM 具備以下訪問權限:數(shù)據(jù)庫、郵件和日歷 API,以及聊天和通知系統(tǒng)。
05 核心要點
1)并非所有系統(tǒng)都需要 AI Agent
應從簡單、可組合的模式入手,按需逐步增加復雜度。某些場景僅需檢索功能即可滿足需求。 以簡歷篩選為例,當篩選標準和后續(xù)操作明確時,基礎工作流就能勝任。僅當需要更大的自主性以減少人工干預時,才應考慮采用 Agent 方案。
2)注重可靠性而非豐富的功能
LLM 的非確定性特質使得構建可靠系統(tǒng)頗具挑戰(zhàn)。雖然快速驗證概念(proofs of concept)可行,但將其擴展到生產(chǎn)環(huán)境時往往暴露各種問題。 建議從沙盒環(huán)境起步,實施統(tǒng)一的測試方法,并通過防護機制確保系統(tǒng)可靠性。
END
本期互動內(nèi)容 ??
? 您認為 AI Agent 的自主決策權應該設限嗎?舉例說明邊界。(例如:向用戶發(fā)送拒信是否需要人工復核?)
本文經(jīng)原作者授權,由 Baihai IDP 編譯。如需轉載譯文,請聯(lián)系獲取授權。
原文鏈接:
??https://www.codelink.io/blog/post/ai-system-development-llm-rag-ai-workflow-agent??
