偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

微博推薦實(shí)時(shí)大模型的技術(shù)演進(jìn)

人工智能 機(jī)器學(xué)習(xí)
本文將介紹近年來推薦大模型的演進(jìn),以及其中一些重要的技術(shù)點(diǎn)(本文基于2022年底在DataFun的分享成文,僅代表當(dāng)時(shí)的技術(shù)和業(yè)務(wù)情況)。

一、技術(shù)路線回顧

1、業(yè)務(wù)場(chǎng)景與特點(diǎn)

本團(tuán)隊(duì)在微博 APP 中負(fù)責(zé)的推薦業(yè)務(wù)主要包括:

① 首頁推薦下的所有 tab 欄的內(nèi)容,信息流產(chǎn)品一般都是第一個(gè) tab 流量占比較高;

② 熱搜向下滑進(jìn)入的一個(gè)信息流,這也是我們的業(yè)務(wù)場(chǎng)景,也包括這個(gè)頁面上的其他信息流 tab,比如視頻頻道等;

③ 在整個(gè) APP 當(dāng)中搜索或者點(diǎn)擊推薦視頻,進(jìn)入的沉浸視頻場(chǎng)景。

圖片

我們的業(yè)務(wù)具有如下一些特點(diǎn):

(1)首先,從推薦實(shí)現(xiàn)的視角來看:

① 業(yè)務(wù)場(chǎng)景多。

② 微博 UI 上用戶對(duì)操作和反饋多樣,內(nèi)容既可以點(diǎn)擊進(jìn)入正文頁觀看,也可以在流內(nèi)消費(fèi),流內(nèi)反饋多樣如點(diǎn)進(jìn)博主個(gè)人頁、點(diǎn)進(jìn)正文頁、點(diǎn)圖片、點(diǎn)視頻、轉(zhuǎn)評(píng)贊等。

③ 可分發(fā)的物料類型多,如首頁推薦可分發(fā)長圖、圖片(一圖或多圖)、視頻(橫版或豎版視頻)、 文章等。

(2)從產(chǎn)品定位角度來看:

① 服務(wù)熱點(diǎn):微博在熱點(diǎn)爆發(fā)前后,流量變化特別大,用戶能在推薦里面順暢消費(fèi)熱點(diǎn)內(nèi)容,是公司對(duì)推薦產(chǎn)品的要求。

② 構(gòu)建關(guān)系:希望在推薦的微博里沉淀一些社交關(guān)系。

2、技術(shù)選型

下圖展示了我們這幾年的技術(shù)進(jìn)步脈絡(luò)。

圖片

當(dāng)前的推薦框架來講千億特征、萬億參數(shù)是標(biāo)配。與 NLP 和 CV 不同,這兩個(gè)方向太大的模型是網(wǎng)絡(luò)本身復(fù)雜度高,推薦場(chǎng)景有較好的稀疏性,模型尺寸比較大,訓(xùn)練往往使用數(shù)據(jù)并行的方式,每個(gè)用戶 serving 并不需要全部模型參數(shù)。

本團(tuán)隊(duì)從 2018 年至 2022 年的技術(shù)演進(jìn),主要是大規(guī)模和實(shí)時(shí)性兩個(gè)方面。在此基礎(chǔ)上再做復(fù)雜結(jié)構(gòu),來達(dá)到事半功倍的效果。

這里簡要介紹一下我們的 Weidl 在線學(xué)習(xí)平臺(tái)。

圖片

主要流程為:用戶行為拼接樣本,給模型來進(jìn)行學(xué)習(xí),再推薦給用戶反饋回來,整體采用數(shù)據(jù)流優(yōu)先的設(shè)計(jì)原則來達(dá)到更好的靈活性。無論使用什么方式訓(xùn)練 KERNEL,離線的模型存儲(chǔ)和在線的 PS 之間的實(shí)時(shí)更新部分還是在的。不管是用手寫的 LR 或 FM,或者 Tensorflow,或者 DeepRec 訓(xùn)練模型都是可以的,對(duì)應(yīng)的模型存儲(chǔ)都是我們自己搭建的一套數(shù)據(jù)流,模型格式也是我們自己做的,從而保證多 Backend 下從模型訓(xùn)練到線上更新能夠在分鐘級(jí)以下,下次用戶調(diào)用時(shí)能用到新的參數(shù)。在這種設(shè)計(jì)原則下,可以很方便的切換 Backend。

Weidl 是微博自研機(jī)器學(xué)習(xí)平臺(tái),其中 Bridge 模式可以調(diào)用各個(gè)深度學(xué)習(xí)框架的算子,也可以不用 Bridge 模式,替換成自研算子也很方便。比如我們之前使用 Tensorflow,會(huì)對(duì) tf 進(jìn)行一些內(nèi)存分配和算子的優(yōu)化,2022 年下半年切換到 DeepRec,對(duì) DeepRec 多一些了解之后,會(huì)發(fā)現(xiàn)之前基于 tf 的一些性能上的優(yōu)化點(diǎn)和 DeepRec 是殊途同歸的。

下圖中列出了本團(tuán)隊(duì)這些年做的一些版本,方便大家理解我們業(yè)務(wù)中各個(gè)技術(shù)點(diǎn)的貢獻(xiàn)度,首先是用基于 FM 的模型解決大規(guī)模實(shí)時(shí)推薦問題,后面依次做了基于深度的復(fù)雜結(jié)構(gòu)。從結(jié)果來看,前面使用非深度模型解決在線實(shí)時(shí)問題帶來的收益也很大。

圖片

信息流推薦與商品的推薦不同,信息流推薦基本都是大規(guī)模實(shí)時(shí)深度結(jié)構(gòu)。這塊也有一些難點(diǎn)和分歧點(diǎn),比如:特征實(shí)時(shí)并不是模型實(shí)時(shí)的替代方案,對(duì)推薦系統(tǒng)來講,模型學(xué)到的才是比較重要的;另外在線學(xué)習(xí)確實(shí)會(huì)帶來一些迭代上的問題,但在絕對(duì)收益前,都是可以花時(shí)間克服的。

圖片

二、大模型近期技術(shù)迭代

這一章節(jié)會(huì)從目標(biāo)、結(jié)構(gòu)和特征幾方面來介紹業(yè)務(wù)的迭代模型。

1、多目標(biāo)融合

微博場(chǎng)景用戶操作很多,用戶表達(dá)對(duì) Item 的喜歡會(huì)有很多種行為,比如點(diǎn)擊互動(dòng)、時(shí)長、下拉等,每個(gè)目標(biāo)都是要去建模預(yù)估,最后整體融合排序,這塊對(duì)推薦業(yè)務(wù)來講是很重要的。最開始做的時(shí)候,是通過靜態(tài)融合加離線搜參來做,后來通過強(qiáng)化學(xué)習(xí)的方法,變成動(dòng)態(tài)搜參,之后又做了一些融合公式優(yōu)化,后面還改進(jìn)成通過模型來輸出一些融合分等。

圖片

強(qiáng)化調(diào)參的核心做法是,把線上流量分成一些小的流量池,通過一些線上當(dāng)前的參數(shù),去生成一些新的參數(shù),去看用戶對(duì)這些參數(shù)的反應(yīng),收集反饋進(jìn)行迭代。其中比較核心的部分是 reward 的計(jì)算,其中用了 CEM、ES。后邊用了自研的算法,以適應(yīng)自身業(yè)務(wù)需求。因?yàn)樵诰€學(xué)習(xí)變化是非??斓?,參數(shù)要不能隨之變化的話就會(huì)出現(xiàn)比較大的問題,比如大家對(duì)于視頻類內(nèi)容的偏好從周五晚上到周六早上和周日晚上到周一早上,偏好的變化是非??斓?,整個(gè)融合參數(shù)的變化要反映出用戶對(duì)一些東西的偏好的變化。 

圖片

下面是模型優(yōu)化中的一些小 trick,用戶每天使用是帶周期性的,每天定時(shí) init 校正是比較好的,不然可能會(huì)走到比較偏的分支;參數(shù)初始化的時(shí)候要服從先驗(yàn)分布,先進(jìn)行先驗(yàn)化分析,再去進(jìn)行差異化融合;加入異常檢測(cè)機(jī)制,保證融合參數(shù)能一致迭代更新。

圖片

融合公式一開始選用加法融合,當(dāng)時(shí)業(yè)務(wù)目標(biāo)還沒有那么多,后來隨著目標(biāo)增多,發(fā)現(xiàn)加法融合不方便支持加更多的目標(biāo),會(huì)弱化各子目標(biāo)的重要性影響,后邊使用了乘法融合公式。效果如 ppt 所示:

圖片

在全量版本升級(jí)為多任務(wù)之后,在此版本上優(yōu)化成,通過模型進(jìn)行目標(biāo)融合。通過模型融合,能更好地捕捉很多非線性的東西,具有更好的表達(dá)力,這樣也能做到個(gè)性化融合,每個(gè)用戶融出來的東西是不一樣的。

圖片

2、多任務(wù)

多任務(wù)是從 2019 年、2020 年開始火起來的一個(gè)概念,推薦系統(tǒng)往往需要同時(shí)關(guān)注多個(gè)目標(biāo),比如我們的業(yè)務(wù)場(chǎng)景里有七個(gè)目標(biāo):點(diǎn)擊、時(shí)長、互動(dòng)、完播、負(fù)反饋、進(jìn)主頁、下拉刷新等。對(duì)每個(gè)目標(biāo)各訓(xùn)練一個(gè)模型會(huì)消耗較多的資源且繁瑣。并且,有些目標(biāo)是稀疏的,有些則相對(duì)稠密一些,如果分開單獨(dú)做模型,那些比較稀疏的目標(biāo)一般不容易學(xué)好,放在一起學(xué)習(xí)能解決稀疏目標(biāo)學(xué)習(xí)的問題。

圖片

推薦多任務(wù)建模入門一般是從 MMOE 開始,到 SNR,再到 DMT,最后到全量的 MM,其實(shí)就是在 SNR 上做了融合網(wǎng)絡(luò)等優(yōu)化。

圖片

在做多任務(wù)之前,重點(diǎn)要解決的問題包括:多目標(biāo)之間各個(gè) loss 是否有沖突,彼此是否會(huì)有蹺蹺板效應(yīng);樣本空間不一致的問題;loss 平衡問題等。在實(shí)際經(jīng)驗(yàn)中,無論是 PCGrad,UWL 的方法在測(cè)試數(shù)據(jù)都會(huì)體現(xiàn)出其作用,但如果放大到生產(chǎn)環(huán)境中,去在線學(xué)習(xí)不斷訓(xùn)練的話,這些方法的作用就會(huì)衰減的比較快,反而根據(jù)經(jīng)驗(yàn)去設(shè)定一些值在整個(gè)在線實(shí)習(xí)環(huán)境中也不是不可行,這塊也不太確定是不是跟在線學(xué)習(xí)相關(guān),還是與樣本量有關(guān)。單獨(dú)做 MMOE 的效果也是比較好的,左邊是業(yè)務(wù)上實(shí)際的一些收益點(diǎn)。

圖片

下面是從 MMOE 開始的一些技術(shù)演進(jìn)。開始做多任務(wù)一般是做簡單的硬連接,后面到 MMOE,再到 SNR 或者 PLE,這些都是近年來業(yè)界比較成熟的方法。本團(tuán)隊(duì)使用的是SNR,并且進(jìn)行了兩個(gè)優(yōu)化。下圖下半部分,最左邊是 SNR 標(biāo)準(zhǔn) paper 的做法,我們把 expert 內(nèi)部的 transformation 進(jìn)行了簡化。同時(shí)會(huì)有獨(dú)享的專家和共享的專家,這里會(huì)根據(jù)一些實(shí)際業(yè)務(wù)中反饋的數(shù)據(jù)結(jié)論的實(shí)際值與估計(jì)偏差進(jìn)行一些分析,做一些單獨(dú)的專家。

圖片

3、多場(chǎng)景技術(shù)

我們所負(fù)責(zé)的推薦場(chǎng)景比較多,很自然想到使用一些多場(chǎng)景的技術(shù)。多任務(wù)是有些目標(biāo)比較稀疏,多場(chǎng)景是因?yàn)閳?chǎng)景有大有小,小場(chǎng)景收斂的沒那么好,因?yàn)閿?shù)據(jù)量不足,而大場(chǎng)景的收斂比較好,即使兩個(gè)場(chǎng)景都差不多大,中間也會(huì)有一些涉及到知識(shí)遷移會(huì)對(duì)業(yè)務(wù)有收益,這也是最近比較熱的方向,和多任務(wù)在技術(shù)上有很多相通的點(diǎn)。

圖片

基于每個(gè)多任務(wù)模型,都可以做多場(chǎng)景模型,相比于多任務(wù)結(jié)構(gòu),多加的是下圖中的  Slot-gate 層,相同的 Embedding 通過 Slot-gate 針對(duì)不同的場(chǎng)景表達(dá)不同的作用。通過 Slot-gate 的輸出可以分為三部分:連專家網(wǎng)絡(luò)、連進(jìn)目標(biāo)任務(wù),或者連特征。

圖片

主模型主要是用 SNR 替換 CGC,跟多任務(wù)的迭代是一脈相成的。下面是當(dāng)前多任務(wù)和多場(chǎng)景混合在一起,在熱點(diǎn)和熱門兩個(gè)內(nèi)部業(yè)務(wù)場(chǎng)景下的應(yīng)用。其中首頁推薦為熱門流,發(fā)現(xiàn)頁推薦為熱點(diǎn)流。

整體結(jié)構(gòu)類似 SNR,上面為點(diǎn)擊、互動(dòng)和時(shí)長三個(gè)目標(biāo)塔。其中這三個(gè)目標(biāo)塔針對(duì)熱門和熱點(diǎn)兩個(gè)場(chǎng)景,細(xì)分為六個(gè)目標(biāo)。除外,增加了 Embeding transform layer,和 Slot-gate 不同的是,Slot-gate 是去找特征的重要性,而 Embeding transform layer 是考慮不同場(chǎng)景下 embedding 空間差異,去進(jìn)行 embedding 映射。有些特征在兩個(gè)場(chǎng)景中維度不同,通過 Embedding transform layer 進(jìn)行轉(zhuǎn)換。

圖片

4、興趣表征

興趣表征是這些年提的比較多的技術(shù),從阿里的 DIN 到 SIM、DMT,已經(jīng)成為業(yè)界用戶行為序列建模的主流。

圖片

一開始使用的 DIN,對(duì)不同行為,構(gòu)建多個(gè)行為序列。引入 attention 機(jī)制給行為中不同物料予以不同權(quán)重,使用 local activation unit 來學(xué)習(xí)用戶序列與當(dāng)前候選排序物料的權(quán)重分布,實(shí)現(xiàn)了熱門精排方案,并取得了一定的業(yè)務(wù)收益。

DMT 的核心是把 Transformer 用在 multitask 上,本團(tuán)隊(duì)使用了簡化的 DMT 模型,移除了 bias 模塊,替換 MMoE 為 SNR,上線后也取得一定的業(yè)務(wù)效果。

圖片

Multi-DIN 是將多個(gè)序列展開,將候選物料的 mid,tag,authorid 等作為 query,分別對(duì)每個(gè)序列單獨(dú)做 attention 得到興趣表征后,拼接其他特征進(jìn)入多任務(wù)排序模型。

圖片

同時(shí)我們也做了實(shí)驗(yàn)發(fā)現(xiàn),把序列拉的更長,比如將點(diǎn)擊、時(shí)長、互動(dòng)序列等,每個(gè)序列從 20 擴(kuò)到 50,效果更好,與 paper 中結(jié)論一致,不過序列更長需要更多的算力成本。

圖片

用戶生命周期超長序列建模和前面的長序列建模不同,不是通過請(qǐng)求特征就能拉到數(shù)據(jù),而是離線構(gòu)造用戶的長行為序列特征;或者是通過一些搜索的方式,找到對(duì)應(yīng)的特征再去生成 embedding;或者是將主模型和超長序列模型分開建模,最終形成 embedding 送入主模型中。

在微博業(yè)務(wù)中,超長序列的價(jià)值沒有那么大,因?yàn)榛ヂ?lián)網(wǎng)上大家的關(guān)注點(diǎn)變化較快,比如熱搜的東西,一兩天就逐漸淡忘了,信息流中七天前的東西,分發(fā)就比較少了。因此太長的用戶行為序列,對(duì)于預(yù)估用戶對(duì) item 的偏好價(jià)值會(huì)有一定程度的減弱。但對(duì)于低頻或者說回流用戶來說,這個(gè)結(jié)論一定程度上是不同的。

圖片

5、特征

使用超大規(guī)模的模型,在特征層面也會(huì)有一些困擾。比如有的特征理論上覺得會(huì)對(duì)模型有幫助,但加入后的效果并不能達(dá)到預(yù)期,這也是推薦業(yè)務(wù)面臨的現(xiàn)實(shí)情況。因?yàn)槟P鸵?guī)模非常大,模型中加了特別多 id 類的信息,已經(jīng)對(duì)一些用戶偏好有了不錯(cuò)的表達(dá),這時(shí)再加一些統(tǒng)計(jì)上的特征,可能就沒那么好用,下面講下本團(tuán)隊(duì)實(shí)踐中比較好用的特征。

首先匹配特征效果都是比較不錯(cuò)的,用戶對(duì)于單個(gè)物料、單個(gè)內(nèi)容類型、單個(gè)發(fā)博者建立一些比較詳細(xì)的統(tǒng)計(jì)數(shù)據(jù),都能帶來一些收益。

圖片

另外,多模態(tài)的特征也是比較有價(jià)值的,因?yàn)檎麄€(gè)推薦模型是基于用戶行為的,有一些低頻、冷門的 Item 在整個(gè)系統(tǒng)中用戶行為都是不足的,這時(shí)引入更多的先驗(yàn)知識(shí)能帶來更多收益。多模態(tài)通過引入 NLP 等技術(shù)引入一批語義進(jìn)來,對(duì)于低頻和冷啟動(dòng)都是有幫助的。

本團(tuán)隊(duì)做了兩種類型引入多模態(tài)特征的做法:第一種類型是把多模態(tài) embedding 融合進(jìn)推薦模型中,對(duì)底層這些 embedding 的梯度凍結(jié),往上層的 MLP 再進(jìn)行更新;另一種方法是利用多模態(tài)在進(jìn)推薦模型之前先做聚類,把聚類的 id 扔進(jìn)推薦的模型進(jìn)行訓(xùn)練,這對(duì)于推薦模型來講是更容易引進(jìn)信息的方式,但也會(huì)丟失一些多模態(tài)具體的語義信息。

上面兩種方式,在我們的業(yè)務(wù)中都做了較多嘗試,第一種方法會(huì)帶來模型復(fù)雜度的提升,需要做很多空間變換,找特征重要性等,但能帶來不錯(cuò)的收益;第二種方法使用聚類 id 去學(xué)習(xí),復(fù)雜度都在模型之外,線上服務(wù)也比較簡單,效果也能達(dá)到 90% 左右,而且還可以對(duì)聚類 id 做一些統(tǒng)計(jì)性的特征,結(jié)合起來效果很好。

圖片

加入多模態(tài)特征后,收益比較大的是高質(zhì)量的低曝光物料,能解決冷啟動(dòng)問題。推薦那些曝光比較少的物料,模型無法充分學(xué)習(xí)的,會(huì)很依賴多模態(tài)體帶來更多信息,對(duì)業(yè)務(wù)生態(tài)也是有正向價(jià)值的。

圖片

Co-action 的動(dòng)機(jī)是:嘗試 deepfm、wide deep 等多種特征交叉方式無果, 懷疑是交叉特征與 DNN 部分共享 embedding 沖突導(dǎo)致。Co-action 相當(dāng)于加了存儲(chǔ),單獨(dú)開辟存儲(chǔ)空間去做交叉,這里增加了表達(dá)空間,在業(yè)務(wù)中也拿到了不錯(cuò)的收益。

圖片

三、鏈路表達(dá)一致性

這部分是關(guān)于粗排和召回的內(nèi)容。對(duì)于推薦業(yè)務(wù)來講,雖然因?yàn)樗懔χС植涣藢装偃f的候選集都用精排來排,而分成召回、粗排、精排幾部分,但邏輯上是在講同個(gè)問題。如下圖舉例,粗排是會(huì)做截?cái)嗟?,最終給到精排的內(nèi)容只有 1000 左右,如果粗排和精排的表達(dá)差異較大,在截?cái)嗟倪^程中很可能會(huì)把將來精排分比較高的內(nèi)容截?cái)嗟?。精排和粗排的特征、模型結(jié)構(gòu)都不一樣,粗排一般和召回的框架比較類似,是向量檢索的近似結(jié)構(gòu),特征會(huì)交叉比較晚,出現(xiàn)和精排模型表達(dá)差異是很自然的情況。如果能提升一致性,也會(huì)促進(jìn)業(yè)務(wù)指標(biāo)上漲,因?yàn)閮蛇吥茏プ⊥瑯拥淖兓厔?shì)。

圖片

下圖展示了粗排一致性迭代過程中的技術(shù)脈絡(luò),上面是雙塔的技術(shù)線,下面是 DNN 的技術(shù)線。由于雙塔的特征交互較晚,所以加了很多雙塔特征交叉的方式。但向量檢索的方式天花板有點(diǎn)太低了,所以從 2022 年開始,會(huì)有 DNN 分支來做粗排,這對(duì)于工程架構(gòu)的壓力比較大,比如要做特征篩選,網(wǎng)絡(luò)剪枝,性能優(yōu)化等,而且一次性打分的條數(shù)也會(huì)較之前有減少,但打的分更好了,因此條數(shù)變少也是可以接受的。

圖片

DSSM-autowide 是基于雙塔做了類似 Deep-FM 的交叉,帶來了業(yè)務(wù)指標(biāo)上的增幅,但下一個(gè)項(xiàng)目,換新的交叉方式,提升就沒有那么顯著了。

圖片

因此,我們覺得基于雙塔能做出的收益是比較有限的。我們還嘗試了基于雙塔做的多任務(wù)粗排模型,但還是繞不過雙塔問題。

圖片

基于上述問題,本團(tuán)隊(duì)對(duì)粗排模型進(jìn)行優(yōu)化,使用 DNN 和級(jí)聯(lián)模型做 Stacking 架構(gòu)。

級(jí)聯(lián)模型可以用雙塔先做一層篩選,篩選之后再過濾截?cái)嘟o粗排的 DNN 模型,相當(dāng)于在粗排這里內(nèi)部做了粗排和精排。換成 DNN 模型后,能支持更復(fù)雜的結(jié)構(gòu),更快擬合用戶興趣變化等。

圖片

級(jí)聯(lián)在框架中起了比較重要的作用,如果沒有級(jí)聯(lián)模型的話,不太能從比較大的候選集中選出小候選集去給粗排的 DNN 來使用。級(jí)聯(lián)中比較重要的是怎么構(gòu)造樣本,可以看下圖。從百萬級(jí)的物料庫,召回幾千粗排,給精排 1000 內(nèi)的物料,最后曝光的是 20 條左右,用戶有行為的是個(gè)位數(shù)條數(shù),整體是從更大的庫走到用戶有行為的漏斗過程。在做級(jí)聯(lián)的時(shí)候,核心點(diǎn)是每個(gè)部分都要進(jìn)行一些采樣,組成一些比較難的 pair 和比較簡單的 pair,來給級(jí)聯(lián)模型學(xué)習(xí)。

圖片

下圖是級(jí)聯(lián)優(yōu)化和全局負(fù)采樣帶來的收益,這里不做詳細(xì)介紹。

圖片

接下來介紹近期比較火熱的因果推斷。

我們使用因果推斷的動(dòng)機(jī)是,給用戶推的東西,如果推所有人都喜歡的東西,用戶點(diǎn)擊效果也不錯(cuò),但用戶自己也有一些比較小眾的興趣,給用戶推這些小眾的物料,用戶也比較喜歡。這兩種東西對(duì)于用戶來講是一樣的,但對(duì)平臺(tái)來講,能推出來更小眾的東西是更個(gè)性化的,而模型更容易推出來的是第一種,因果推斷就是來解決這種問題的。

具體的做法是去組 pairwise 樣本對(duì),對(duì)用戶點(diǎn)擊且流行度低的物料,和流行度高但用戶未點(diǎn)擊的物料,用貝葉斯的方法做 loss 訓(xùn)練模型。

在我們的實(shí)踐中,因果推斷在粗排和召回階段來做比在精排做更容易獲得收益。原因是精排模型比較復(fù)雜,精排已經(jīng)有不錯(cuò)的個(gè)性化能力,但粗排和召回即使用了 DNN,也是裁剪的 DNN,整個(gè)模型的個(gè)性化能力還是有差距的,在個(gè)性化能力比較差的地方使用因果推斷效果肯定比在個(gè)性化能力強(qiáng)的地方使用效果更明顯。

圖片

四、其他技術(shù)點(diǎn)

1、序列重排

重排是采用 beam-search 方法,設(shè)計(jì)結(jié)合 NEXT 下拉模型的 reward 函數(shù),生成多種候選序列,選取最大收益的序列,擴(kuò)量后效果不穩(wěn)定,細(xì)節(jié)進(jìn)一步優(yōu)化中。 

圖片


2、圖技術(shù)

圖技術(shù)主要包括兩部分:圖數(shù)據(jù)庫和圖 embedding。對(duì)于推薦來講,如果用圖數(shù)據(jù)庫,會(huì)更方便一些,成本更低。圖 embedding 指的是游走類的節(jié)點(diǎn)隨機(jī)游走,將圖數(shù)據(jù)(通常為高維稠密的矩陣)映射為低維稠密向量的過程。圖嵌入需要捕捉到圖的拓?fù)浣Y(jié)構(gòu),頂點(diǎn)與頂點(diǎn)的關(guān)系,以及其他的信息(如子圖,連邊等),在此不展開介紹。

圖片

推薦中可以用基于隨機(jī)游走、圖結(jié)構(gòu)、圖對(duì)比學(xué)習(xí)等算法,做用戶與博文、用戶與作者的互動(dòng)/關(guān)注等召回。主流的方式還是把圖文、用戶等做成 embedding,給模型加特征,也有一些比較前沿的嘗試方式,如直接做端到端網(wǎng)絡(luò),用 GNN 來做推薦。

圖片

下圖是目前端到端的模型,目前我們還在嘗試中,不是線上的主流量版本。 

圖片

下圖是基于圖網(wǎng)絡(luò)生成 embedding,右邊的圖是根據(jù)賬號(hào)的領(lǐng)域算出的相似度。對(duì)于微博來講, 根據(jù)關(guān)注關(guān)系算出 embedding 是有收益的。

圖片

五、問答環(huán)節(jié)

Q1:對(duì)推薦信息流很多 Item 只瀏覽不點(diǎn)擊,是怎么區(qū)分是否感興趣的呢?通過列表頁上 Item 的停留時(shí)間嗎?

A1:對(duì)的,信息流業(yè)務(wù)來講話,時(shí)長是比較重要的優(yōu)化指標(biāo)。做時(shí)長的優(yōu)化指標(biāo),不太方便直接優(yōu)化用戶今天整體在 APP 上停留多久,優(yōu)化比較多的還是在 item 停留多久。不把時(shí)長當(dāng)作優(yōu)化目標(biāo)來做,就比較容易推很多淺消費(fèi)的內(nèi)容。

Q2:訓(xùn)練發(fā)生 fail over 模型實(shí)時(shí)更新會(huì)有一致性問題嗎?模型的一致性問題如何處理?

A2: 當(dāng)前對(duì)于推薦的學(xué)習(xí)訓(xùn)練來講,如果是 cpu 的話異步式的比較多,大家不太做成那種全局有個(gè)輪次,等輪次結(jié)束之后統(tǒng)一收集完,更新到 ps 上,再發(fā)起下輪次,因?yàn)樾阅軉栴},大家基本不會(huì)這樣做。無論是不是實(shí)時(shí)、在線學(xué)習(xí),都達(dá)不到強(qiáng)一致性。

如果你訓(xùn)練發(fā)生 fail over 的話,如果流式訓(xùn)練的話,是記錄在數(shù)據(jù)流上,比如 kafka 或者是 flink 上,去記載你當(dāng)前方案訓(xùn)練到哪的位置的,你的 ps 上也有你上次訓(xùn)練完的記錄,也就跟全局的差異是差不多的。

Q3:請(qǐng)問召回使用精排的序會(huì)不會(huì)降低召回模型迭代上限?

A3:迭代上限姑且理解為召回的天花板,那我理解召回的天花板肯定不是要超越精排,舉例來說,如果算力現(xiàn)在是無窮的話,那用精排打 500 萬物料的分是不是對(duì)業(yè)務(wù)最好的處理方式。那召回在投入不那么大的情況下,盡量把精排覺得最好的部分給他找出來,比如說讓他從召回里面那 6000 里面選出的 top15 和在 500 萬的 top15 是比較接近的,召回模塊做的就比較好了。如果大家這么理解的話,那召回使用精排的序不會(huì)降低迭代上線,反而是向著上限前進(jìn)。不過這也是我們一家之言,大家根據(jù)自己的業(yè)務(wù)導(dǎo)向,可能結(jié)論不一定是放之四海而皆準(zhǔn)的。

責(zé)任編輯:姜華 來源: DataFunTalk
相關(guān)推薦

2015-09-24 18:08:50

微博架構(gòu)架構(gòu)演進(jìn)架構(gòu)

2017-04-15 21:36:05

微服務(wù)新浪微博WOT

2024-12-17 08:11:27

2015-12-21 09:39:31

2023-03-27 21:04:02

ByteHouse云原生數(shù)據(jù)倉庫

2021-07-07 10:00:03

深度學(xué)習(xí)系統(tǒng)機(jī)構(gòu)

2018-09-26 09:24:15

微博WAIC架構(gòu)

2015-12-29 10:32:04

新浪微博廣告推薦

2017-03-13 11:39:00

WOTWOTA高可用架構(gòu)

2023-01-11 18:34:22

推薦精排模型

2018-05-16 14:04:05

人工智能新浪微博實(shí)時(shí)流計(jì)算

2014-08-06 09:08:03

大數(shù)據(jù)

2024-08-05 09:18:21

2024-11-25 08:20:22

2017-11-14 16:59:47

新浪微博深度學(xué)習(xí)

2015-01-06 09:55:16

Unity3D實(shí)時(shí)繪制

2015-07-07 08:58:19

WOT2015新浪微博王傳鵬

2024-02-28 08:20:25

推薦系統(tǒng)大模型ChatGPT

2016-03-17 16:00:51

新浪微博用戶模型

2017-10-25 13:23:36

互聯(lián)網(wǎng)產(chǎn)品推薦系統(tǒng)技術(shù)演進(jìn)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)