偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

一篇講透AI客服:百萬級實戰(zhàn)心法

人工智能
今年春節(jié)期間 DeepSeek 的崛起讓很多人尤其是傳統(tǒng)企業(yè)的老板認識到了 AI 的巨大價值。在當前經(jīng)濟環(huán)境下,傳統(tǒng)企業(yè)普遍面臨著降本增效的壓力,而 AI 能力的增強讓老板們看到了希望。畢竟 AI 完美解決了員工的「忠誠度高,能力強,價格低」這種不可能三角問題。

大家好,我是坤哥,好久不見!

今年我們的 AI 客服業(yè)務(wù)迎來了猛增,實現(xiàn)了十倍增長和百萬營收。

我們團隊也做了很多 AI 客服的項目,積累了不少實戰(zhàn)經(jīng)驗,包括如何獲客等。

這些經(jīng)驗我相信無論是對 AI 客服還是其他智能體的從業(yè)者我相信都有一些幫助。

在此把這些經(jīng)驗整理成文,希望能對大家有幫助。

一、AI 客服簡介

今年春節(jié)期間 DeepSeek 的崛起讓很多人尤其是傳統(tǒng)企業(yè)的老板認識到了 AI 的巨大價值。

在當前經(jīng)濟環(huán)境下,傳統(tǒng)企業(yè)普遍面臨著降本增效的壓力,而 AI 能力的增強讓老板們看到了希望。

畢竟 AI 完美解決了員工的「忠誠度高,能力強,價格低」這種不可能三角問題。

圖片圖片

從多數(shù)老板的實際訴求來看,他們主要希望解決的是文本類的客服問題,這類問題 AI 目前的表現(xiàn)很好,如果你使用 Claude 等大模型,能解決 95% 以上的問題。

即便是需要圖片識別類的場景,對于企業(yè)而言,這類場景(如需要兌獎識別,訂單識別)相對有限,通過字節(jié)的 vision pro, gpt-4o 等模型也能很好地解決。

目前通過精細地提示詞,RAG 等手段,AI 已經(jīng)能幫助企業(yè)大幅度提效了。

話不多說,接下來就和大家聊一下如何打造百萬級營收的 AI 客服。

二、背景

這里需要說明的是我們目前做的主要是微信場景下的 AI 客服,主要能力用到了「微信對話+AI」。

那要使用微信對話,就要用到微信的收發(fā)消息等 API,這方面企微官方本身是提供的,不過費用比較貴。

而像個微的接口官方是沒有的,這就需要用到市面上 chatgpt-on-wechat 等項目,不過據(jù)說用了的話會比較容易封號。

所以我們自己是找了一家專注做這一塊的服務(wù)廠商,底層用的是他們的微信對話接口,相對比較穩(wěn)定,且費用相對官方便宜很多。

有了底層的微信對話能力的保障,我們只要做好上層的 AI 回復即可。

三、調(diào)整提示詞之前請先梳理好業(yè)務(wù)流程

接下來我們再來談一下本文的重點,如何做好微信場景內(nèi)的 AI 回復。

說到 AI 回復,相信大家會脫口而出:提示詞,RAG 等耳熟能詳?shù)姆椒ā?/p>

這些技術(shù)確實重要,但在寫提示詞之前,我們得首先明白提示詞是業(yè)務(wù)場景的投射。

如果業(yè)務(wù)場景不熟悉,直接上 AI+ RAG,效果往往適得其反。

我們之前就踩過這樣坑,不管三七二十一,直接用通用提示詞+RAG,結(jié)果客戶很不滿意,老說效果不好。

后來我們才發(fā)現(xiàn)我們陷入了一個誤區(qū),每個企業(yè)的場景可能都不一樣,需要先梳理其流程,然后再把這些流程用提示詞表示出來。

流程怎么梳理?我們主要用到了兩種方法:

  1. 針對流程很成熟的客戶,我們讓客戶自己把相關(guān)的流程或作為 RAG 的話術(shù)整理給我們。
  2. 針對流程不是很成熟,或者內(nèi)部沒有 SOP 的企業(yè)(是的,你沒看錯,不少傳統(tǒng)企業(yè)沒有私域意識,缺乏話術(shù) SOP 化的意識),我們首先讓客戶的銷冠綁定我們的微信席位,這樣可以拿到此銷冠的所有話術(shù),然后再進行針對性的分析,提煉,然后我們可以幫他們分析出 SOP,據(jù)此來整理成提示詞。

一句話:在寫提示詞前首先梳理好業(yè)務(wù)場景是很重要的,提示詞沒寫好大概率是你的業(yè)務(wù)邏輯沒有梳理好。

四、打造高效提示詞的秘訣

接下來我們再來談?wù)勅绾螌懞锰崾驹~,尤其是如何寫好微信場景內(nèi)的提示詞,這兩者可是大有區(qū)別哦。

先來聊第一個:

一)如何寫好提示詞

1、使用 Claude,o1, Gemini 等國外大模型

工欲善其事,必先利其器!推薦大家優(yōu)先選擇國外的大模型。

從我們的多個 AI 客服表現(xiàn)來看,國外的大模型明顯高出國內(nèi)一籌,我們之前用的 R1,豆包 thinking 等,發(fā)現(xiàn)效果和國外的大模型相比相差太大了。

尤其是R1,幻覺率太高了(高達 14.3%,相當于 100 次回答,有 15 個問題不可信),有時候甚至會把思考過程輸出到最后的結(jié)果中,造成大型社死現(xiàn)場。

為了限制它的幻覺,我們不得不多寫提示詞來限制,但同時提示詞越多,AI 的表現(xiàn)越強。

在長指令遵循上,我們也發(fā)現(xiàn)國外的模型像 Claude-4-Sonnet 等也遵循得更好。

于是后來我們給客戶調(diào)試,上生產(chǎn)等都首選 Claude,Gemini 等國外的大模型,不用擔心成本問題,只要 AI 的成本能大幅度低于人力成本,客戶還是愿意接受的,這筆賬客戶算得過來。

2、使用 LangGPT 框架

這一塊我們主要用了 @云中江樹 開源的 langGPT 模板( https://github.com/langgptai/LangGPT),它主要采用了結(jié)構(gòu)化的 Markdown 格式來編寫提示詞,層次比較清晰。

可以通過在里面定義好角色(Role),背景(Background),目標(Objectives),工作流(Workflow)等來讓 AI 來按照這一套定義好的框架來執(zhí)行。

示例模板如下:

langGPT 框架有什么好處呢,AI 本身是能理解 markdown 的各個符號的意義的,它通過 markdown 語法可以建立結(jié)構(gòu)化優(yōu)勢。

  • 清晰的層次結(jié)構(gòu):使用 # 一級標題、## 二級標題等明確層級。
  • 易于理解:標題、列表、代碼塊等元素讓指令結(jié)構(gòu)一目了然。
  • 便于 AI 解析:通過粗體,刪除 等符號可以讓 AI 更好地識別不同部分的重要性。
  • 方便拓展:如果你想要再額外加一些諸如示例,語氣詞等模塊,使用 # 號添加到原提示詞中就行了。

可能有朋友就會說了,這套理論我學會了,但讓我從 0 到 1 寫一套這樣的提示詞還是比較有難度的。

說到這我們不得不提一個現(xiàn)在很火的「AI First」思維:凡事都可以先想想 AI 是否能幫解決,從 0 到 100 確實很難,但如果基于 AI 寫的六七十分再到 100,那事情就簡單多了。

那么怎么讓 AI 基于你的業(yè)務(wù)流程寫出 langGPT 提示詞呢,其實也比較簡單,你可以把如下提示詞發(fā)給 AI:

我現(xiàn)在要做一個AI機器人,能針對客戶的問題智能回復我業(yè)務(wù)的,請幫我寫一個 langGPT 框架的提示詞。

這樣 AI 就能很快地基于你的業(yè)務(wù)寫一個 langGPT 框架的提示詞了,你再基于這個提示詞去改寫就簡單多了。

實際上根據(jù)我們的經(jīng)驗,只要你的業(yè)務(wù)流程寫得足夠清晰,AI 寫出來的提示詞基本能滿足你的需求,你需要的改動很少。

3、使用 few shots

使用 few shots 是一種非常有效地提升模型表現(xiàn)的技巧,你想讓 AI 怎么回,根據(jù)什么話術(shù),什么語氣回,與其說千遍,都不如給它幾個示例,AI 能很好地提煉出示例中的要點,回復的風格從而給出滿意的回復。

4、讓 AI 幫忙優(yōu)化提示詞

有時候你自己寫的提示詞可能會比較冗長,哆嗦,可以試試讓 AI 幫忙簡化一下,我經(jīng)常做的是把我的提示詞發(fā)給 AI,然后讓 AI 幫助優(yōu)化一下,改造后的效果經(jīng)常比原提示詞更好。

二)如何寫好微信場景內(nèi)的提示詞

一般的提示詞按上述方法寫就夠了,但要注意的是由于我們的 AI 是在微信內(nèi)回的,那就需要考慮如何在微信內(nèi)回得更讓客戶滿意。

我們可以先想想微信場景內(nèi)一般來說人是怎么回復的?

并不會像網(wǎng)頁版的 AI 輸出那樣輸出一大段的文字來回復給用戶,而是會像下圖這樣一句句地回復:

圖片圖片

所以我們會在提示詞中加一句數(shù)組的輸出格式:

這樣可以把一大段的長文按數(shù)組的形式輸出給客戶。

同時微信內(nèi)的文字中如果過長,加一些類似上圖中表情符號也是會更友好一些,所以我們也加了"使用微信表情: [愉快] [愛好]等"的指令,并在示例中也插入了微信表情,這樣 AI 在回復中就會很智能得在輸出的文字中插入表情,客戶的感覺也會更好。

此外拿到 AI 輸出的數(shù)組后,為了讓咨詢的用戶感覺 AI 的回復不像是機器人,我們會在每一句之間都加一段時間間隔,比如隔個 10s 再發(fā)再一句,這樣用戶就不會感到和你聊天的是機器人了。

五、讓提示詞表現(xiàn)更出色的進階技巧

以上的提示詞技巧能滿足絕大多數(shù)的 AI 客服場景,但光有這個還不夠。

有時候?qū)懼鴮懼銜l(fā)現(xiàn)提示詞會越來越大,比如客戶的場景稍微復雜一點,提示詞長度很容易破萬。

在長提示詞下 AI 可能會出現(xiàn)幻覺,不能很好地遵循指令等問題。

這種情況下該怎么辦?

一)拆分提示詞

我們驗證的一種可行的技術(shù)就是拆分提示詞。

我們將一個提示詞拆分成多個場景中的提示詞,通過一個前置的意圖識別來判斷到底應該調(diào)用哪個提示詞。

這樣的話每個場景的提示詞由于長度變短了,表現(xiàn)也會更好。

圖片圖片

二)變量替換法

有時候提示詞中不得不保留一些長字符串,比如用戶說“你好”, AI 要回復一串很長的固定問候語,這種也會比較導致提示詞過長。

怎么解決?

我們采用了一種非常有效的方案:變量替換法。

比如我們在提示詞中把這一長串固定的問候語用【問侯語】這幾個字來代替,當 AI 輸出這幾個字后,我們在發(fā)送給客戶之前再把它替換為真正的問候語,通過這樣的方式我們大幅減少了不必要的提示詞長度。

并且這種方式也能有效減少幻覺的生成。

比如我們還有一個場景,需要讓 AI 生成一篇公眾號文章,最后需要為 html 的格式。

然后需要在提示詞中給定幾十個 url,讓 AI 把這些 url 插入到最終生成的 html 中的圖片標簽中,如<img src="url" />。

這些 url 非常的長,類似這樣:

https://xxx/xxx/2507/13/15_58_35/eb522a88-7995-40ef-8229-161e9a6646c1.jpg

幾十個這樣的 url 堆在提示詞中,很容易造成 AI 的幻覺,導致輸出不存在的 url。

那我們怎么做?使用變量替換法。

所有 url 用 A1,A2,A3 來表示:

并且在提示詞中寫清楚 A1,A2 等表示 url.

這樣一下把超長的 url 轉(zhuǎn)成了 A1 這樣極短的變量.

然后 AI 在輸出中就會用 AI,A2... 來表示圖片的 url(AI 最終生成的圖片標簽變?yōu)榱?nbsp;<img src="A1" /> 這種形式),拿到結(jié)果后你在工程上再把它們替換成真正的 url,就大功告成了!

這樣改造之后,使用 Claude,Gemini 等模型 生成文章的成功率達到了 100%,未發(fā)生過一起 url 生成錯誤的情況

六、RAG 技巧簡述

提到 AI 客服,RAG 是繞不過去的話題,我們先來看一下基于 RAG 的查詢.

圖片圖片

市面上主流的 RAG 都是基于這張圖里的流程來的,區(qū)別無非是文檔分片策略,向量化或重排序算法等的不同

這里我想重點強調(diào)一下重寫(rewrite)和重排序(Reranking)兩個階段。

一)重寫

先說一下什么是重寫,重寫是說把用戶當前的問題結(jié)合上下文重寫成一個新的問題再去匹配。

比如用戶之前問:“特斯拉這家公司咋樣”,當前又問:“它的發(fā)動機質(zhì)量咋樣”。

很顯然你不應該用“它的發(fā)動機質(zhì)量咋樣”去匹配知道知識庫,因為這里的”它“指代不明。

應該結(jié)合上下文將它重寫為:特斯拉的發(fā)動機質(zhì)量咋樣 然后再去匹配。

多數(shù)知識庫提供了重寫的能力,但不得不說它們的效果都很一般,我們用的火山的知識庫,由于底層 rewrite 的功能用了他們的自己的模型,再加上默認的提示詞無法針對不同的客戶定制化,所以效果很一般。

所以這一步根據(jù)我們的經(jīng)驗是強烈建議大家使用國外的大模型如 Claude,GPT 等來重寫問題的。

二)重排序

獲取分片一般分為兩個階段,先獲取如回( 向量庫返回的相似度分數(shù))分片(圖中的初步檢索),再獲取精排(重排序模型提供的相關(guān)性分數(shù)(Relevance Score))分片(圖中的重排序)。

從我們的實踐來看,重排序是必選項!

為什么光第一階段的召回不夠呢,因為這兩者衡量的是兩件不同的事情。召回階段主要采用向量相似度解決的是“語義上有多像”的問題,而重排序則旨在解決“這個分片在多大程度上能直接回答我的問題”。

為了更深入地理解這一點,我們來分解一下為什么僅靠向量庫的分數(shù)是不夠的。

1、 語義相似 (Semantic Similarity) vs. 精準相關(guān) (Contextual Relevance)

  • 向量檢索(第一階段): 當我們將用戶問題(Query)向量化后,在向量數(shù)據(jù)庫中進行搜索,我們是在尋找與問題向量在“語義空間”中最接近的文本分片(Chunks)。這個過程使用的是單塔模型(Bi-Encoder),它獨立地為問題和每個分片生成向量,然后計算它們之間的距離(如余弦相似度)。

優(yōu)點: 速度極快,可以從數(shù)百萬甚至數(shù)十億的文檔中迅速召回一個語義上相關(guān)的候選集。

缺點: 它可能無法完全捕捉到問題的細微差別和上下文。例如,問題是“中國的創(chuàng)業(yè)公司可以享受哪些稅務(wù)豁免政策?”,向量檢索可能會召回所有關(guān)于“中國創(chuàng)業(yè)”、“稅務(wù)政策”、“豁免條例”的文檔。其中一些可能只是提到了這些詞,但并沒有直接回答問題,甚至可能描述的是不相關(guān)的政策。

  • 重排序(第二階段): 重排序器(Reranker)通常采用跨編碼器模型(Cross-Encoder)。它不再是獨立地看待問題和分片,而是將 (問題, 分片文本) 作為一個整體輸入模型,讓模型內(nèi)部的注意力機制(Attention Mechanism)去細致地分析問題中的每一個詞與分片中的每一個詞之間的關(guān)聯(lián)性。
  • 優(yōu)點: 它能更深刻地理解問題的意圖和上下文,從而判斷這個分片是否是問題的“直接答案”。它能分辨出僅僅是“提及”了關(guān)鍵詞,還是“詳細解答”了問題。
  • 缺點: 計算量巨大,速度很慢。如果對整個知識庫的每個分片都運行一次,那將是無法接受的。

一個簡單的比喻:

  1. 向量檢索 就像在一個巨大的圖書館里,根據(jù)書名和簡介快速找出20本和“人工智能倫理”相關(guān)的書。你只是粗略地看了一下封面和簡介,感覺它們是相關(guān)的。
  2. 重排序 就像你把這20本書拿到桌子上,逐一打開,仔細閱讀每一本的目錄和前言,判斷哪一本書真正深入地探討了你關(guān)心的“AI在醫(yī)療領(lǐng)域的偏見問題”。

2、重排序帶來的核心優(yōu)勢

提升答案精度(Precision)

向量檢索為了“寧可錯殺,不可放過”,會召回一些相關(guān)性不那么高的結(jié)果(高召回率 Recall,但可能低精度 Precision)。

重排序的工作就是在這批初選結(jié)果中進行精選,剔除那些“看起來相關(guān),但實際無用”的噪聲,從而提升最終送入大語言模型(LLM)的上下文質(zhì)量。

優(yōu)化大語言模型的上下文窗口

大語言模型(如GPT系列)的上下文窗口是有限的。此外,研究表明,LLM 在處理輸入信息時存在“迷失在中間(Lost in the Middle)”的問題,即它們對上下文開頭和結(jié)尾的信息關(guān)注度更高,而中間部分的信息容易被忽略。

  • 沒有重排序: 你可能會把向量檢索返回的 Top-K 個結(jié)果按原始順序(例如Top 5)直接塞給LLM。如果最關(guān)鍵的分片恰好排在第3位,它被 LLM 有效利用的概率就會降低。
  • 有了重排序: 重排序器會將最相關(guān)的1-3個分片挑選出來并放在最前面。這樣,你不僅為LLM提供了更高質(zhì)量的上下文,還把最重要的信息放在了它最容易“看到”的位置,從而生成更準確、更相關(guān)的答案。

注意:上一段提到的 Lost in the Middle 其實如果你用 Claude 等更先進的大模型,其實這這種現(xiàn)象并不明顯,這就是為什么我一直推薦大家使用國外大模型的原因。

綜上,通過使用召回+精排(重排序)的策略,我們保證了 RAG 系統(tǒng)既能處理大規(guī)模知識庫,又能確保提供給 LLM 的上下文是最高質(zhì)量的。

七、RAG 不是萬能良藥

提到 AI 客服,我相信多數(shù)人會想到用 RAG 往里裝,讓客戶上傳相應的文檔,AI 再基于 RAG 來回答。

多數(shù)情況下這樣做確實是沒問題,也是業(yè)界的通用思路。

但是實際上我們要考慮客戶的場景,如果客戶的場景相對比較簡單,其實不使用 RAG,光使用提示詞就足夠用了,用 RAG 反而效果沒那么好。

我們有一個做中醫(yī)課程的客戶,他們的客服場景就很簡單:引導用戶進入今晚的直播間。

它包括了幾個階段:了解客戶的基本信息,詢問用戶是否了解中醫(yī),發(fā)送課程相關(guān)信息以塑造價值等,這幾個階段其實相對比較簡單,我們只要寫好 System Prompt 來精確表示這幾個階段就足夠了,完全不需要用到 RAG

八、如何讓 AI 客服利潤最大化

之前我們針對每一個客戶都定制化精調(diào)了一套 AI 提示詞,精調(diào)這一套效果確實不錯,不過價格也相對較貴,3~5w

這里需要說明的是我們的定價模式:一個模型定制大概在 3~5w,一個微信席位費在 3~5k/年。

模型好,客戶就會不斷地增加微信席位來讓 AI 回復。

AI 回復也會不斷地消耗著算力費(token),可以幫我們實現(xiàn)躺賺。

但是一次性付個 3~5w 的精調(diào)模型費一些客戶很難接受。

他可能想的是我想先買一個 5k 的微信席位費試試模型的效果,覺得不錯了我們再買更多的微信席位。

從盈收的角度看,確實也更合理,先用一個引流品做到超預期交付。

后續(xù)客戶覺得滿意再購買幾十甚至上百個微信席位也是能為我們創(chuàng)造幾萬甚至幾十萬的收入的。

想法確實很好,但這對我們的提示詞編寫提出了一個挑戰(zhàn):即提示詞編寫需要標準化,也就是 SOP 化。

那能不能做到呢,答案是可以的。

之前我們說過很多傳統(tǒng)企業(yè)其實是沒有自己的私域運營意識的,更不用說 SOP 話術(shù)了。

所以我們基于此設(shè)計了一套相對通用的策略,如設(shè)計了開場語,價值塑造,產(chǎn)品轉(zhuǎn)化等策略。

設(shè)計了這些通用策略后,我們做了一個后臺,運營人員往這些策略里填上每個每家客戶獨有的場景,話術(shù)示例就行了。

圖片圖片

填好之后最后會組裝成一個可用的 System Prompt。

此外相關(guān)的話術(shù)整理客戶自己也整理上傳好了文檔到知識庫中。

于是一個通用的基于 RAG 的大模型就這完成了,最終的效果也是很不錯的,能滿足客戶多數(shù)的問題。

并且通過這種方式,只要運營人員介入即可完成一個模型的配置,成本上也做到了大幅度下降。

如果客戶想要進一步的效果,比如圖片識別或?qū)τ脩舸驑说裙δ艿脑?,就需要付費 3~5w 來做精調(diào)模型了。

這樣我們也搭建了低中高產(chǎn)品矩陣,滿足了客戶的多樣化需求。

九、AI 客服是一個好產(chǎn)品嗎?

先說結(jié)論:是的,并且是一個很有前景的產(chǎn)品!

現(xiàn)在 AI 能力這么強,很多人可能會擔心自己的產(chǎn)品做著做著由于 AI 能力的提升,自己的產(chǎn)品突然被干掉了。

但其實 AI 客服并不會。

為什么呢?

判斷標準很簡單:只要你的產(chǎn)品隨著 AI 能力的變強也能變強,并且具有 AI 沒有的數(shù)據(jù),平臺等優(yōu)勢,你的產(chǎn)品就是一個很好的產(chǎn)品。

比如 AI 客服,它隨著 AI 能力的變強,回答得會越來越好!

但同時呢,各個大模型公司又無法拿到微信的會話數(shù)據(jù),對我們來說有了數(shù)據(jù)壁壘。

并且我們的系統(tǒng)還做了針對微信打標客戶的主動觸達功能,這是單憑 AI 無法完成的。

圖片圖片

綜上,一個好的,能持久的 AI 產(chǎn)品,必須滿足兩個條件:

  • 它能隨著 AI 變強而變強,這一點市面上的 AI 產(chǎn)品應該基本都滿足。
  • 它要有 AI 無法觸達的數(shù)據(jù),平臺等壁壘。

現(xiàn)在市場上充斥著 AI 導致失業(yè)的論調(diào),可以參照以上標準來做單憑 AI 很難替代的產(chǎn)品。

此外我們在文中也說了,提示詞本質(zhì)是業(yè)務(wù)邏輯的投射,這就要求我們成為一個業(yè)務(wù)專家,這一部分至少很長時間內(nèi) AI 是無法代替人的。

十、總結(jié):AI 浪潮下的路與橋

總而言之,打造一款真正高質(zhì)量、能實現(xiàn)商業(yè)閉環(huán)的 AI 客服,絕非只是簡單調(diào)用大模型 API 那么輕松。

它是一項需要將技術(shù)與業(yè)務(wù)思考緊密結(jié)合的系統(tǒng)工程。

回顧我們的探索之路,從十倍增長和百萬營收中沉淀下來的經(jīng)驗,可以歸結(jié)為以下幾點:

  1. 業(yè)務(wù)先行:一切技術(shù)選型和提示詞的打磨,都源于對業(yè)務(wù)流程的深刻理解。提示詞是業(yè)務(wù)邏輯的投射,沒有清晰的業(yè)務(wù) SOP,再強的模型也只是空中樓閣。
  2. 技法求精:我們強調(diào)選用 Claude、Gemini 等頂尖模型作為基礎(chǔ),利用 LangGPT 實現(xiàn)結(jié)構(gòu)化、可維護的提示詞工程,并通過 few-shots 和持續(xù)迭代優(yōu)化,讓 AI 的回復精準且人性化。
  3. 場景深耕:我們不僅要讓 AI “會說”,更要讓它在特定平臺(如微信)上“說得好”。通過模擬真人的分段回復、巧用表情符號等細節(jié),我們才能打造出真正無縫、貼心的用戶體驗。
  4. 策略制勝:面對復雜的業(yè)務(wù)場景,我們學會了用“提示詞拆分”和“變量替換法”化繁為簡,提升模型的穩(wěn)定性與準確率。而在應用 RAG 時,我們也認識到“重寫”與“重排序”對于保證回答質(zhì)量的決定性作用。

更重要的是,我們認識到,一個成功的 AI 產(chǎn)品,必須擁有 AI 無法輕易觸及的壁壘——無論是獨特的業(yè)務(wù)數(shù)據(jù),還是與特定平臺的深度整合。它應該隨著 AI 的進步而變得更強,而非被其替代。

希望本文從“道”(業(yè)務(wù)梳理)到“術(shù)”(提示詞技巧與RAG應用),再到“略”(商業(yè)模式)的全面分享,能為大家在構(gòu)建 AI 客服乃至其他智能體的道路上,提供一份有價值的“路書”和一座堅實的“橋梁”,幫助大家少走彎路,抓住 AI 時代的巨大機遇。

責任編輯:武曉燕 來源: 坤哥漫談IT
相關(guān)推薦

2025-07-14 07:50:00

2022-08-16 09:05:39

Kubernetes權(quán)限管理

2025-08-08 00:00:00

2024-09-27 12:04:48

2024-08-12 11:22:10

2021-05-12 06:18:19

KubeBuilderOperatork8s

2019-11-14 15:44:32

系統(tǒng)緩存架構(gòu)

2021-05-16 10:52:58

kubebuilderstatus event

2024-05-09 09:41:45

2025-10-30 00:55:00

AIAgent分布式

2022-08-31 09:47:38

ORM緩存持久化

2023-12-05 07:14:27

AIGo

2022-04-19 08:15:53

DDD領(lǐng)域建模實戰(zhàn)

2020-03-26 09:18:54

高薪本質(zhì)因素

2018-11-12 08:07:04

Nginx優(yōu)化并發(fā)

2019-09-03 09:41:48

運維架構(gòu)技術(shù)

2021-03-18 09:18:39

分布式事務(wù)Saga

2020-04-17 13:47:50

5G 頻譜移動通信

2021-11-21 22:36:18

Java修飾符開發(fā)

2025-01-13 12:00:00

反射Java開發(fā)
點贊
收藏

51CTO技術(shù)棧公眾號