OnePiece:工業(yè)排序系統(tǒng)的新范式——上下文工程與隱式推理如何突破性能瓶頸

大家好,我是肆〇柒。今天我們一起讀一篇來自Shopee、中國人民大學(xué)、中國科學(xué)技術(shù)大學(xué)及新加坡國立大學(xué)聯(lián)合研究團(tuán)隊(duì)的技術(shù)報(bào)告——《OnePiece: Bringing Context Engineering and Reasoning to Industrial Cascade Ranking System》。這篇論文首次系統(tǒng)性地將大型語言模型(LLM)的核心機(jī)制——上下文工程與多步推理——成功遷移到工業(yè)級排序系統(tǒng),并在Shopee 生產(chǎn)環(huán)境中取得了顯著的業(yè)務(wù)收益。所以,不僅是一篇技術(shù)論文,更是一份面向未來的工業(yè)AI架構(gòu)藍(lán)圖。
想想看,,當(dāng)你連續(xù)3個(gè)月看到GMV/UU指標(biāo)增長停滯在0.5%以下,而模型復(fù)雜度已提升50%時(shí),是否意識到問題可能不在模型架構(gòu),而在輸入與推理方式?工業(yè)級推薦與搜索系統(tǒng)正面臨這樣一個(gè)困境:盡管工程師們不斷升級模型結(jié)構(gòu),但性能提升已陷入個(gè)位數(shù)百分比的"天花板"。Shopee的實(shí)踐證明,OnePiece通過將LLM核心機(jī)制遷移到排序場景,實(shí)現(xiàn)了業(yè)務(wù)指標(biāo)兩位數(shù)的增長突破,為行業(yè)提供了全新的思考方向。
工業(yè)排序系統(tǒng)的"天花板"困局
在工業(yè)級搜索與推薦系統(tǒng)中,工程師們長期面臨著一個(gè)尷尬的現(xiàn)實(shí):盡管大型語言模型(LLM)在自然語言處理任務(wù)上取得了革命性突破,但當(dāng)這些技術(shù)被簡單移植到排序系統(tǒng)時(shí),往往只能帶來有限的性能提升。當(dāng)前主流的深度學(xué)習(xí)推薦模型(Deep Learning Recommendation Model)雖經(jīng)優(yōu)化仍表現(xiàn)強(qiáng)勁,但基于Transformer架構(gòu)的改進(jìn)卻往往僅帶來邊際收益。
以Shopee平臺為例,當(dāng)團(tuán)隊(duì)將DLRM模型參數(shù)量提升30%時(shí),GMV/UU僅提高0.3%,而推理延遲增加了15%。這種投入產(chǎn)出比嚴(yán)重失衡的現(xiàn)象,正反映了工業(yè)排序系統(tǒng)面臨的典型瓶頸。

LLM與OnePiece的上下文工程和推理機(jī)制對比
上圖揭示了LLM成功的關(guān)鍵機(jī)制——上下文工程增強(qiáng)輸入側(cè),推理機(jī)制優(yōu)化輸出側(cè)——而工業(yè)排序系統(tǒng)長期只關(guān)注架構(gòu)優(yōu)化,忽視了這兩方面。LLM通過豐富的上下文工程增強(qiáng)輸入側(cè),利用多步推理優(yōu)化輸出過程,兩者共同擴(kuò)大了模型的泛化能力和能力邊界。相比之下,工業(yè)排序系統(tǒng)通常僅依賴原始的用戶-物品交互序列,缺乏結(jié)構(gòu)化的上下文豐富性;同時(shí),系統(tǒng)缺乏類似Chain-of-Thought的顯式推理過程監(jiān)督信號。這一現(xiàn)狀促使研究者思考:能否將LLM的成功范式遷移到工業(yè)排序系統(tǒng),突破當(dāng)前性能瓶頸?
為何LLM機(jī)制難以直接移植?兩大根本性挑戰(zhàn)
將LLM機(jī)制直接移植到工業(yè)排序系統(tǒng)面臨兩大根本性挑戰(zhàn),這也是當(dāng)前性能提升受限的關(guān)鍵原因:
挑戰(zhàn)一:構(gòu)造有效上下文
工業(yè)排序系統(tǒng)通常僅依賴原始用戶-物品交互序列,這些序列缺乏LLM式Prompt所具有的結(jié)構(gòu)化豐富性。例如,在個(gè)性化搜索中,模型需要同時(shí)理解用戶的長期興趣、當(dāng)前查詢意圖以及情境信息,但現(xiàn)有特征工程方法主要針對DLRM架構(gòu)優(yōu)化,無法有效整合這些異構(gòu)信號。
業(yè)務(wù)影響:在Shopee的實(shí)踐中,僅使用ID的交互歷史(V1)導(dǎo)致Recall@100僅為0.407,而引入完整物品側(cè)信息(V2)后提升至0.428。這1.9%的絕對提升意味著每天可能多召回?cái)?shù)十萬相關(guān)商品,直接轉(zhuǎn)化為GMV增長。
挑戰(zhàn)二:優(yōu)化無監(jiān)督推理
LLM可以通過大規(guī)模Chain-of-Thought注釋來指導(dǎo)推理過程的訓(xùn)練和優(yōu)化。然而,工業(yè)排序系統(tǒng)缺乏此類監(jiān)督信號——即使領(lǐng)域?qū)<乙矡o法用自然語言清晰描述用戶行為背后的隱性決策路徑。這使得直接監(jiān)督推理軌跡變得不可能,如何在沒有顯式推理路徑標(biāo)注的情況下,引導(dǎo)模型進(jìn)行有效的多步驟隱式推理,成為另一關(guān)鍵挑戰(zhàn)。
業(yè)務(wù)影響:單步推理導(dǎo)致信息壓縮瓶頸,模型無法充分挖掘用戶行為中的深層模式。在Shopee的實(shí)驗(yàn)中,單步推理模型(V3)的Recall@100為0.490,而引入多步推理后(V6)提升至0.517,1.9%的提升意味著每日多產(chǎn)生數(shù)百萬次精準(zhǔn)推薦。
OnePiece的三大創(chuàng)新:針對性解決行業(yè)痛點(diǎn)
針對上述挑戰(zhàn),研究者提出了OnePiece框架,將LLM的上下文工程和推理機(jī)制無縫整合到工業(yè)級級聯(lián)排序系統(tǒng)的檢索和排序階段。該框架構(gòu)建在純Transformer主干之上,通過三大核心創(chuàng)新解決了工業(yè)排序中的關(guān)鍵瓶頸。
創(chuàng)新一:結(jié)構(gòu)化上下文工程 (Structured Context Engineering) → 解決"構(gòu)造有效上下文"挑戰(zhàn)
OnePiece的核心突破在于統(tǒng)一了檢索和排序階段的輸入表示,將異構(gòu)信號編碼為結(jié)構(gòu)化的token序列。與僅依賴原始交互序列的傳統(tǒng)方法不同,OnePiece精心設(shè)計(jì)了四種互補(bǔ)的token類型,共同構(gòu)建豐富的上下文:
交互歷史(Interaction History, IH) 以時(shí)間順序編碼用戶的歷史物品交互,捕獲時(shí)間模式和不斷演變的興趣。與傳統(tǒng)方法不同,OnePiece不僅使用物品ID,還融合了類別、店鋪等豐富特征,通過共享投影層將這些特征映射到統(tǒng)一的隱空間。
偏好錨點(diǎn)(Preference Anchors, PA) 是OnePiece最具創(chuàng)新性的設(shè)計(jì)之一。這些錨點(diǎn)是基于領(lǐng)域知識構(gòu)建的輔助物品序列,如當(dāng)前查詢相關(guān)的top-clicked items或top-purchased items。通過將這些序列分組并用BOS(Beginning of Sequence)/EOS(End of Sequence)標(biāo)記包裹,模型能夠捕獲上下文相關(guān)的用戶意圖。
業(yè)務(wù)價(jià)值:實(shí)驗(yàn)表明,隨著PA序列長度增加,性能持續(xù)提升。當(dāng)PA長度從10增加到90時(shí),Recall@100從0.459提升至0.504,click-AUC從0.879提升至0.908。這說明PA通過引入領(lǐng)域知識錨點(diǎn),有效補(bǔ)充了原始交互歷史的不足,幫助模型理解"為什么在這個(gè)場景下用戶會喜歡這些商品",而不僅是"用戶過去喜歡什么"。
場景描述符(Situational Descriptors, SD) 表示與排序任務(wù)相關(guān)的非物品信息,如用戶畫像和查詢上下文。OnePiece為用戶和查詢分別構(gòu)建token,整合了ID、年齡、位置等靜態(tài)特征以及查詢文本、流行度等動態(tài)信息。這些描述符為模型提供了關(guān)鍵的情境錨點(diǎn),尤其在檢索任務(wù)中表現(xiàn)顯著。
候選物品集(Candidate Item Set, CIS) 是排序模式特有的組件。為平衡效率與表達(dá)能力,OnePiece采用"分組集合式"(grouped setwise)策略:將檢索到的候選集隨機(jī)劃分為大小為C的小組,每組獨(dú)立處理。這種設(shè)計(jì)允許組內(nèi)候選物品相互可見,實(shí)現(xiàn)高效且魯棒的精細(xì)比較。特別地,CIS tokens不加位置編碼,防止模型學(xué)習(xí)到序列位置與相關(guān)性之間的虛假關(guān)聯(lián)。

OnePiece的上下文工程與tokenizer設(shè)計(jì)
上圖展示了OnePiece如何將不同信號轉(zhuǎn)化為結(jié)構(gòu)化token序列。關(guān)鍵設(shè)計(jì)在于:1) PA序列被BOS/EOS標(biāo)記分組,使模型能識別不同類型的參考信號;2) SD部分獨(dú)立成段,提供穩(wěn)定的情境錨點(diǎn);3) CIS tokens無位置編碼,確保評估基于內(nèi)容而非位置。這種設(shè)計(jì)讓模型能夠在統(tǒng)一框架內(nèi)聯(lián)合推理長期行為模式、領(lǐng)域參考知識和情境約束,為后續(xù)推理奠定基礎(chǔ)。
上下文工程的消融實(shí)驗(yàn)(如下表)顯示,僅添加物品側(cè)信息使Recall@100提升5.2%,進(jìn)一步添加PA序列帶來持續(xù)提升,最終添加SD達(dá)到最佳效果。這證明工業(yè)排序系統(tǒng)的性能瓶頸不僅源于架構(gòu)限制,更在于缺乏有效的上下文構(gòu)建與推理機(jī)制。

創(chuàng)新二:塊狀隱式推理 (Block-wise Latent Reasoning) → 解決"優(yōu)化無監(jiān)督推理"挑戰(zhàn)
多步推理是LLM成功的關(guān)鍵機(jī)制,但傳統(tǒng)工業(yè)排序系統(tǒng)通常僅使用單步推理,難以充分挖掘模型潛力。OnePiece提出了塊狀隱式推理機(jī)制,通過迭代精煉表示來擴(kuò)展推理能力。
塊狀推理的核心思想是將推理過程分解為多個(gè)步驟,每個(gè)步驟處理一組token(稱為"塊")。與單單元推理相比,塊狀設(shè)計(jì)提供了可調(diào)節(jié)的"推理帶寬",在信息壓縮與保留間取得平衡。每個(gè)推理步驟中,新塊可以關(guān)注所有基礎(chǔ)輸入token和歷史推理塊,形成一個(gè)逐步精煉的表示。
業(yè)務(wù)價(jià)值:塊狀推理帶來了顯著的性能提升。在排序任務(wù)中,將塊大小從M=1(點(diǎn)式排序)增至M=12(組式排序),C-AUC從0.885提升至0.927,相對提升4.7%。值得注意的是,推理耗時(shí)僅增10.1%,卻帶來顯著性能提升,展示了高效推理的潛力。


OnePiece多步塊狀推理的注意力可視化
上圖揭示了多步推理的注意力演化規(guī)律。在檢索模式中,第一步推理(R1)主要關(guān)注情景描述符(S)和偏好錨點(diǎn)(P),第二步(R2)則轉(zhuǎn)向交互歷史(I)的特定區(qū)域;在排序模式中,R3對R2表現(xiàn)出強(qiáng)烈關(guān)注,而對R1的關(guān)注相對較弱。這表明模型學(xué)會優(yōu)先利用最新、最精煉的表示,形成高效的漸進(jìn)式信息壓縮機(jī)制。這種注意力演化模式證明了塊狀推理并非簡單重復(fù),而是實(shí)現(xiàn)了有意義的表示深化。
塊狀推理就像專家評審過程:第一步形成初步印象,第二步聚焦關(guān)鍵細(xì)節(jié),第三步整合所有信息形成綜合評價(jià)。與單步推理相比,這種分步思考方式避免了信息壓縮導(dǎo)致的關(guān)鍵細(xì)節(jié)丟失,使模型能夠?qū)?fù)雜的用戶偏好建模分解為多個(gè)漸進(jìn)步驟。
創(chuàng)新三:漸進(jìn)式多任務(wù)訓(xùn)練 (Progressive Multi-Task Training) → 為推理提供有效訓(xùn)練機(jī)制
針對工業(yè)排序缺乏顯式推理監(jiān)督的挑戰(zhàn),OnePiece提出了漸進(jìn)式多任務(wù)訓(xùn)練策略,將自然存在的用戶反饋鏈轉(zhuǎn)化為分階段監(jiān)督信號。
該策略基于課程學(xué)習(xí)(Curriculum Learning)思想,將K個(gè)推理步驟分配給K個(gè)從基礎(chǔ)到復(fù)雜的任務(wù)。以電子商務(wù)為例,任務(wù)序列遵循自然的用戶參與路徑:曝光→點(diǎn)擊→加購→下單。每個(gè)推理步驟k負(fù)責(zé)優(yōu)化特定任務(wù)τk,使模型能夠先掌握基本識別能力,再逐步進(jìn)階到復(fù)雜偏好建模。
業(yè)務(wù)價(jià)值:漸進(jìn)式訓(xùn)練帶來了顯著的性能提升。在檢索任務(wù)中,使用多任務(wù)訓(xùn)練使Recall@100從0.495(V4)提升至0.517(V6);在排序任務(wù)中,C-AUC從0.906(V6)提升至0.911(V7)。這證明了分散式訓(xùn)練比集中式訓(xùn)練更能避免梯度沖突,使每個(gè)推理步驟發(fā)展出特定能力。

不同模型在檢索和排序任務(wù)上的訓(xùn)練收斂曲線
上圖展示了OnePiece的數(shù)據(jù)效率優(yōu)勢。從圖中可以看到,OnePiece僅用7-10天數(shù)據(jù)就超過了DLRM的性能,且隨著訓(xùn)練數(shù)據(jù)增加持續(xù)提升,而DLRM很快達(dá)到平臺期。這意味著OnePiece能更快從新數(shù)據(jù)中學(xué)習(xí),減少冷啟動問題,加速業(yè)務(wù)迭代。在實(shí)際業(yè)務(wù)中,這轉(zhuǎn)化為更快的模型迭代周期和更高的資源利用效率。
機(jī)制解釋:漸進(jìn)式多任務(wù)訓(xùn)練通過任務(wù)分配避免了多任務(wù)在同一表示上的梯度沖突。每個(gè)推理步驟發(fā)展出特定能力:早期步驟聚焦表面行為模式,后期步驟則挖掘深層偏好。例如,在檢索模式中,第一步優(yōu)化曝光預(yù)測,第二步優(yōu)化點(diǎn)擊預(yù)測;在排序模式中,第三步專門優(yōu)化下單預(yù)測。這種設(shè)計(jì)使模型能夠從淺層認(rèn)知到深層偏好建模的路徑。
效果驗(yàn)證:從技術(shù)指標(biāo)到業(yè)務(wù)價(jià)值
離線實(shí)驗(yàn):數(shù)據(jù)效率與性能的雙重優(yōu)勢
基于Shopee平臺30天日志的離線實(shí)驗(yàn)驗(yàn)證了OnePiece的全面優(yōu)勢。在相同訓(xùn)練天數(shù)下,OnePiece在檢索和排序任務(wù)上均顯著超越最強(qiáng)基線ReaRec+PA。具體而言,Recall@100達(dá)到0.517,C-AUC達(dá)到0.911,分別比基線提升6.6%和5.7%。
關(guān)鍵發(fā)現(xiàn):OnePiece不僅初始性能更高,且隨訓(xùn)練天數(shù)增加持續(xù)提升,而DLRM和HSTU等基線很快達(dá)到平臺期。如上圖所示,OnePiece在僅用7-10天數(shù)據(jù)時(shí)已超越基線,60天數(shù)據(jù)下性能差距進(jìn)一步擴(kuò)大,表明其具有更強(qiáng)的建模能力和數(shù)據(jù)利用效率。
塊大小M的收益遞減機(jī)制:推理規(guī)模實(shí)驗(yàn)表明,增大塊大小M帶來性能提升但存在收益遞減。在排序任務(wù)中,將塊大小從M=1增至M=12,C-AUC從0.885提升至0.927,相對提升4.7%。最大收益出現(xiàn)在M=1到M=4的過渡,C-AUC提升3.1%,證明跨候選比較對排序任務(wù)的重要性。隨著M進(jìn)一步增加,收益逐漸遞減:M從4增至8僅提升0.7%,從8增至12僅提升0.6%。
業(yè)務(wù)解讀:推理塊大小M在排序任務(wù)中存在最優(yōu)范圍,M=1到M=4帶來最大收益(3.1%),后續(xù)增長效益遞減。M=12時(shí)推理耗時(shí)僅增10.1%,卻帶來4.7%的C-AUC提升,展示了高效推理的潛力。這表明在實(shí)際業(yè)務(wù)中,可根據(jù)資源約束靈活調(diào)整推理深度,在性能和效率間取得最佳平衡。
線上A/B測試:業(yè)務(wù)指標(biāo)與系統(tǒng)效率雙豐收
OnePiece已在Shopee主要個(gè)性化搜索場景全量部署,服務(wù)數(shù)十億用戶。線上A/B測試結(jié)果表明,OnePiece在業(yè)務(wù)指標(biāo)和系統(tǒng)效率上均取得顯著收益。
業(yè)務(wù)指標(biāo)方面:
- 檢索模式:GMV/UU提升+1.08%,訂單量提升+0.71%,買家比例提升+0.41%,同時(shí)壞查詢率下降0.17%
 - 排序模式:GMV/UU提升+1.12%,廣告收入提升+2.90%,點(diǎn)擊率提升+0.29%
 
召回能力方面,OnePiece展現(xiàn)出強(qiáng)大的獨(dú)立貢獻(xiàn)能力。如圖所示,其獨(dú)立帶來的印象和點(diǎn)擊份額分別是DLRM的2.8倍和2.4倍。這表明OnePiece不僅能覆蓋其他召回路線的曝光,還能提供大量新穎且有價(jià)值的印象和點(diǎn)擊,顯著提升整體系統(tǒng)性能。

OnePiece在檢索階段的獨(dú)立貢獻(xiàn)對比
上圖展示了OnePiece的獨(dú)立貢獻(xiàn)優(yōu)勢。在印象方面,OnePiece的獨(dú)立貢獻(xiàn)率從DLRM的3.6%提升至9.9%,增長2.8倍;在點(diǎn)擊方面,從2.4%提升至5.7%,增長2.4倍。這意味著OnePiece不僅能夠替代現(xiàn)有召回策略,還能提供DLRM無法覆蓋的優(yōu)質(zhì)內(nèi)容,直接增加業(yè)務(wù)價(jià)值。
系統(tǒng)效率方面,OnePiece實(shí)現(xiàn)了硬件利用率和推理速度的雙重優(yōu)化:
- 檢索模式:推理耗時(shí)降低25%(30ms vs. 40ms),同時(shí)模型FLOPs利用率從35%提升至80%,內(nèi)存利用率從30%提升至50%
 - 排序模式:通過KV緩存技術(shù),即使將推理塊大小從M=1增至M=12,推理耗時(shí)僅增加10.1%,卻帶來顯著性能提升
 
實(shí)踐啟示
OnePiece的實(shí)踐證明,LLM的核心機(jī)制——上下文工程與多步推理——可以成功遷移到工業(yè)級排序系統(tǒng),并帶來顯著性能突破。對從業(yè)者而言,這些發(fā)現(xiàn)具有直接的實(shí)踐價(jià)值:
1. 上下文工程:從"特征拼接"到"結(jié)構(gòu)化輸入"
- 行動建議:分析現(xiàn)有特征工程是否充分整合了多源信號,嘗試引入基于業(yè)務(wù)知識的輔助序列作為偏好錨點(diǎn)
 - 關(guān)鍵點(diǎn):確保SD(情境描述符)提供穩(wěn)定的場景錨點(diǎn),PA(偏好錨點(diǎn))提供查詢相關(guān)的參考信號
 - 低成本起步:先在現(xiàn)有系統(tǒng)中增加物品側(cè)特征,觀察Recall@100變化,這是最易實(shí)施且收益顯著的改進(jìn)
 
2. 推理機(jī)制:從"單步?jīng)Q策"到"多步思考"
- 行動建議:評估現(xiàn)有系統(tǒng)是否受制于單步推理的信息壓縮瓶頸,考慮引入塊狀推理機(jī)制
 - 關(guān)鍵點(diǎn):根據(jù)任務(wù)需求設(shè)定合適的塊大小M,檢索任務(wù)通常M較小,排序任務(wù)可適當(dāng)增大
 - 低成本起步:先從兩步推理開始,分別優(yōu)化曝光預(yù)測和點(diǎn)擊預(yù)測任務(wù)
 
3. 訓(xùn)練策略:從"單一目標(biāo)"到"課程學(xué)習(xí)"
- 行動建議:利用自然存在的用戶反饋鏈(曝光→點(diǎn)擊→下單)作為分階段監(jiān)督信號
 - 關(guān)鍵點(diǎn):確保每個(gè)推理步驟負(fù)責(zé)優(yōu)化一個(gè)特定任務(wù),避免梯度沖突
 - 低成本起步:將多任務(wù)損失分散到不同推理步驟,而非集中在最后一步
 
4. 系統(tǒng)架構(gòu):從"多模型"到"統(tǒng)一模型"

傳統(tǒng)多路線檢索系統(tǒng)與OnePiece統(tǒng)一架構(gòu)對比
上圖展示了OnePiece如何簡化復(fù)雜系統(tǒng)。傳統(tǒng)多路線檢索需要維護(hù)多個(gè)獨(dú)立模型,每條路徑都有特定架構(gòu)和存儲系統(tǒng);而OnePiece通過單一模型處理不同檢索場景,只需調(diào)整上下文工程。線上測試證實(shí),OnePiece對各種召回路線的覆蓋率均顯著提升,證明其統(tǒng)一架構(gòu)能夠有效替代多個(gè)專業(yè)召回策略。
業(yè)務(wù)價(jià)值:統(tǒng)一架構(gòu)不僅降低了系統(tǒng)復(fù)雜度,還減少了維護(hù)成本。在Shopee的實(shí)踐中,OnePiece對各種召回路線的覆蓋率均顯著提升,最高達(dá)105.8%,同時(shí)獨(dú)立貢獻(xiàn)率提升2.8倍,為系統(tǒng)簡化提供了可行路徑。
結(jié)語:邁向"上下文理解+深度推理"的新時(shí)代
OnePiece的成功實(shí)踐表明,工業(yè)級排序系統(tǒng)不應(yīng)只關(guān)注架構(gòu)升級,而應(yīng)重視輸入側(cè)的上下文構(gòu)建與輸出側(cè)的推理過程這兩個(gè)互補(bǔ)維度。這種雙輪驅(qū)動的優(yōu)化思路,為推薦系統(tǒng)從"特征工程+簡單排序"時(shí)代邁向"上下文理解+深度推理"的新階段提供了可行路徑。
對每一位推薦系統(tǒng)工程師而言,OnePiece啟示我們:真正的性能突破不僅來自模型架構(gòu)的升級,更來自對輸入與輸出過程的系統(tǒng)性優(yōu)化。在數(shù)據(jù)量持續(xù)增長的今天,能夠有效利用豐富行為信號的架構(gòu),將為工業(yè)排序系統(tǒng)突破性能瓶頸提供持續(xù)動力。
行動清單:
1. 評估現(xiàn)有系統(tǒng)的上下文豐富度:是否充分利用了多源信號?
2. 分析推理深度是否受限:單步推理是否導(dǎo)致信息壓縮瓶頸?
3. 檢查訓(xùn)練信號是否充分利用:用戶反饋鏈?zhǔn)欠癖晦D(zhuǎn)化為分階段監(jiān)督?
4. 考慮系統(tǒng)簡化可能性:能否用統(tǒng)一架構(gòu)替代多個(gè)專業(yè)模型?
工業(yè)級排序系統(tǒng)的進(jìn)化正從"特征工程+簡單排序"時(shí)代邁向"上下文理解+深度推理"的新階段。OnePiece的成功實(shí)踐證明,通過精心設(shè)計(jì)的上下文工程與推理機(jī)制,工業(yè)排序系統(tǒng)能夠充分釋放Transformer架構(gòu)的潛力,突破傳統(tǒng)性能瓶頸,為用戶提供更精準(zhǔn)、更相關(guān)的體驗(yàn)。近期,這類LLM落地在推薦、排序算法領(lǐng)域場景的論文開始多起來,很高興看到這樣的創(chuàng)新應(yīng)用,后面還有一篇類似場景的論文,回頭也發(fā)出來。















 
 
 
















 
 
 
 