偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

研究大模型門檻太高?不妨看看小模型SLM,知識(shí)點(diǎn)都在這

人工智能 新聞
隨著對(duì)小型語(yǔ)言模型需求的增長(zhǎng),當(dāng)下研究文獻(xiàn)涵蓋了 SLMs 的多個(gè)方面,例如針對(duì)特定應(yīng)用優(yōu)化的訓(xùn)練技術(shù)如量化感知訓(xùn)練和選擇性架構(gòu)組件。

本篇綜述的作者團(tuán)隊(duì)包括賓州州立大學(xué)的博士研究生王發(fā)利,張智維,吳縱宇,張先仁,指導(dǎo)教師王蘇杭副教授,以及來(lái)自倫斯勒理工學(xué)院的馬耀副教授,亞馬遜湯先鋒、何奇,德克薩斯大學(xué)休斯頓健康科學(xué)中心黃明副教授團(tuán)隊(duì)。

摘要:大型語(yǔ)言模型(LLMs)在多種任務(wù)中表現(xiàn)出色,但由于龐大的參數(shù)和高計(jì)算需求,面臨時(shí)間和計(jì)算成本挑戰(zhàn)。因此,小型語(yǔ)言模型(SLMs)因低延遲、成本效益及易于定制等優(yōu)勢(shì)優(yōu)點(diǎn),適合資源有限環(huán)境和領(lǐng)域知識(shí)獲取,正變得越來(lái)越受歡迎。我們給出了小語(yǔ)言模型的定義來(lái)填補(bǔ)目前定義上的空白。我們對(duì)小型語(yǔ)言模型的增強(qiáng)方法、已存在的小模型、應(yīng)用、與 LLMs 的協(xié)作、以及可信賴性方面進(jìn)行了詳細(xì)調(diào)查。我們還探討了未來(lái)的研究方向,并在 GitHub 上發(fā)布了相關(guān)模型及文章:https://github.com/FairyFali/SLMs-Survey。

圖片

論文鏈接:https://arxiv.org/abs/2411.03350

文章結(jié)構(gòu)

圖片

圖 1 文章結(jié)構(gòu)

LLMs 的挑戰(zhàn)

神經(jīng)語(yǔ)言模型(LM)從 BERT 的預(yù)訓(xùn)練微調(diào)到 T5 的預(yù)訓(xùn)練提示,再到 GPT-3 的上下文學(xué)習(xí),極大增強(qiáng)了 NLP。模型如 ChatGPT、Llama 等在擴(kuò)展至大數(shù)據(jù)集和模型時(shí)顯示出 “涌現(xiàn)能力”。這些進(jìn)步推動(dòng)了 NLP 在多個(gè)領(lǐng)域的應(yīng)用,如編程、推薦系統(tǒng)和醫(yī)學(xué)問(wèn)答。 

盡管大型語(yǔ)言模型(LLMs)在復(fù)雜任務(wù)中表現(xiàn)出色,但其龐大的參數(shù)和計(jì)算需求限制了部署本地或者限制在云端調(diào)用。這帶來(lái)了一系列挑戰(zhàn):

  1. LLMs 的高 GPU 內(nèi)存占用和計(jì)算成本通常使得其只能通過(guò)云 API 部署,用戶需上傳數(shù)據(jù)查詢,可能引起數(shù)據(jù)泄漏及隱私問(wèn)題,特別是在醫(yī)療、金融和電商等敏感領(lǐng)域。
  2. 在移動(dòng)設(shè)備上調(diào)用云端 LLMs 時(shí)面臨云延遲問(wèn)題,而直接部署又面臨高參數(shù)和緩存需求超出普通設(shè)備能力的問(wèn)題。
  3. LLMs 龐大的參數(shù)數(shù)量可能導(dǎo)致幾秒至幾分鐘的推理延遲,不適合實(shí)時(shí)應(yīng)用。
  4. LLMs 在專業(yè)領(lǐng)域如醫(yī)療和法律的表現(xiàn)不佳,需要成本高的微調(diào)來(lái)提升性能。
  5. 雖然通用 LLMs 功能強(qiáng)大,但許多應(yīng)用和任務(wù)只需特定功能和知識(shí),部署 LLMs 可能浪費(fèi)資源且性能不如專門模型。

SLMs 的優(yōu)勢(shì)

最近,小型語(yǔ)言模型(SLMs)在處理特定領(lǐng)域問(wèn)題時(shí)顯示出與大型語(yǔ)言模型(LLMs)相當(dāng)?shù)男阅?,同時(shí)在效率、成本、靈活性和定制方面具有優(yōu)勢(shì)。由于參數(shù)較少,SLMs 在預(yù)訓(xùn)練和推理過(guò)程中節(jié)約了大量計(jì)算資源,減少了內(nèi)存和存儲(chǔ)需求,特別適合資源有限的環(huán)境和低功耗設(shè)備。因此,SLMs 作為 LLMs 的替代品越來(lái)越受到關(guān)注。如圖 2 所示,Hugging Face 社區(qū)中 SLMs 的下載頻率已超過(guò)大型模型,而圖 3 顯示了 SLMs 版本隨時(shí)間推移的日益流行。

圖片

圖 2 Hugging Face 上個(gè)月下載量(數(shù)據(jù)獲取在 2024 年 10 月 7 日)

圖片

圖 3 SLMs 時(shí)間線

SLMs 的定義

通常,具有涌現(xiàn)能力的語(yǔ)言模型被歸類為大型語(yǔ)言模型(LLMs)。然而,小型語(yǔ)言模型(SLMs)的分類尚無(wú)統(tǒng)一標(biāo)準(zhǔn)。一些研究認(rèn)為 SLMs 的參數(shù)少于 10 億,且在移動(dòng)設(shè)備上通常配備約 6GB 的內(nèi)存;而另一些研究則認(rèn)為 SLMs 的參數(shù)可達(dá)到 100 億,但這些模型通常缺乏涌現(xiàn)能力??紤]到 SLMs 在資源受限的環(huán)境及特定任務(wù)中的應(yīng)用,我們提出了一個(gè)廣義的定義:SLMs 的參數(shù)范圍應(yīng)介于能展現(xiàn)專門任務(wù)涌現(xiàn)能力的最小規(guī)模和在資源限制條件下可管理的最大規(guī)模之間。這一定義旨在整合不同觀點(diǎn),并考慮移動(dòng)計(jì)算及能力閾值因素。

SLMs 的增強(qiáng)方法

在大語(yǔ)言模型時(shí)代小語(yǔ)言模型的增強(qiáng)方法會(huì)有不同,包括從頭開(kāi)始訓(xùn)練 SLMs 的訓(xùn)練方法、使 SLMs 遵循指令的監(jiān)督微調(diào) (SFT)、先進(jìn)的知識(shí)提煉和量化技術(shù),以及 LLMs 中經(jīng)常使用的技術(shù),以增強(qiáng) SLMs 針對(duì)特定應(yīng)用的性能。我們?cè)敿?xì)介紹了其中一些代表性方法,包括參數(shù)共享的模型架構(gòu)(從頭開(kāi)始訓(xùn)練子章節(jié) 3.1)、從人類反饋中優(yōu)化偏好(有監(jiān)督微調(diào)子章節(jié) 3.2)、知識(shí)蒸餾的數(shù)據(jù)質(zhì)量(3.3 章節(jié))、蒸餾過(guò)程中的分布一致性(3.4 章節(jié))、訓(xùn)練后量化和量化感知訓(xùn)練技術(shù)(3.5 章節(jié))、RAG 和 MoE 方法增強(qiáng) SLMs(3.6 章節(jié))。這一章節(jié)的未來(lái)方法是探索可提高性能同時(shí)降低計(jì)算需求的模型架構(gòu),比如 Mamba。

SLMs 的應(yīng)用

由于 SLMs 能夠滿足增強(qiáng)隱私性和較低的內(nèi)存需求,許多 NLP 任務(wù)已開(kāi)始采用 SLMs,并通過(guò)專門技術(shù)提升其在特定任務(wù)上的性能(見(jiàn) 4.1 節(jié)),如問(wèn)答、代碼執(zhí)行、推薦系統(tǒng)以及移動(dòng)設(shè)備上的自動(dòng)化任務(wù)。典型應(yīng)用包括在移動(dòng)設(shè)備上自動(dòng)執(zhí)行任務(wù),SLMs 可以作為代理智能調(diào)用必需的 API,或者根據(jù)智能手機(jī) UI 頁(yè)面代碼自動(dòng)完成給定的操作指令(見(jiàn) 4.1.5 節(jié))。

此外,部署 SLMs 時(shí)通常需考慮內(nèi)存使用和運(yùn)行效率,這對(duì)預(yù)算有限的邊緣設(shè)備(特別是智能手機(jī))上的資源尤為關(guān)鍵(見(jiàn) 4.2 節(jié))。內(nèi)存效率主要體現(xiàn)在 SLMs 及其緩存的空間占用上,我們調(diào)研了如何壓縮 SLMs 本身及其緩存(見(jiàn) 4.2.1 節(jié))。運(yùn)行效率涉及 SLMs 參數(shù)量大及切換開(kāi)銷,如內(nèi)存緩存區(qū)與 GPU 內(nèi)存之間的切換(見(jiàn) 4.2.2 節(jié)),因此我們探討了減少 MoE 切換時(shí)間和降低分布式 SLMs 延遲等策略。

未來(lái)研究方向包括使用 LoRA 為不同用戶提供個(gè)性化服務(wù)、識(shí)別 SLMs 中的固有知識(shí)及確定有效微調(diào)所需的最少數(shù)據(jù)等(更多未來(lái)方向詳見(jiàn)第 8 章)。

已存在的 SLMs

我們總結(jié)了一些代表性的小型語(yǔ)言模型(詳見(jiàn)圖 3),這些模型包括適用于通用領(lǐng)域和特定領(lǐng)域的小型語(yǔ)言模型(參數(shù)少于 70 億)。本文詳細(xì)介紹了這些小型語(yǔ)言模型的獲取方法、使用的數(shù)據(jù)集和評(píng)估任務(wù),并探討了通過(guò)壓縮、微調(diào)或從頭開(kāi)始訓(xùn)練等技術(shù)獲取 SLMs 的策略。通過(guò)統(tǒng)計(jì)分析一些技術(shù),我們歸納出獲取通用 SLMs 的常用技術(shù),包括 GQA、Gated FFN,SiLU 激活函數(shù)、RMS 正則化、深且窄的模型架構(gòu)和 embedding 的優(yōu)化等(見(jiàn) 5.1 章)。特定領(lǐng)域的 SLMs,如科學(xué)、醫(yī)療健康和法律領(lǐng)域的模型,通常是通過(guò)對(duì)大模型生成的有監(jiān)督領(lǐng)域數(shù)據(jù)進(jìn)行指令式微調(diào)或在領(lǐng)域數(shù)據(jù)上繼續(xù)訓(xùn)練來(lái)獲取的(見(jiàn) 5.2 章)。未來(lái)的研究方向?qū)ㄔ诜?、金融、教育、電信和交通等關(guān)鍵領(lǐng)域開(kāi)發(fā)專業(yè)化的小型語(yǔ)言模型。

SLMs 輔助 LLMs

由于 SLMs 在運(yùn)行效率上表現(xiàn)出色且與 LLMs 的行為規(guī)律相似,SLMs 能夠作為代理輔助 LLMs 快速獲取一些先驗(yàn)知識(shí),進(jìn)而增強(qiáng) LLMs 的功能,例如減少推理過(guò)程中的延遲、縮短微調(diào)時(shí)間、改善檢索中的噪聲過(guò)濾問(wèn)題、提升次優(yōu)零樣本性能、降低版權(quán)侵權(quán)風(fēng)險(xiǎn)和優(yōu)化評(píng)估難度。

在第 6 章中,我們探討了以下五個(gè)方面:

(i) 使用 SLMs 幫助 LLMs 生成可靠?jī)?nèi)容:例如,使用 SLMs 判斷 LLMs 輸入和輸出的真實(shí)置信度,或根據(jù) LLMs 的中間狀態(tài)探索幻覺(jué)分?jǐn)?shù)。詳細(xì)的可靠生成方法、增強(qiáng) LLMs 的推理能力、改進(jìn) LLMs RAG 以及緩解 LLMs 輸出的版權(quán)和隱私問(wèn)題,請(qǐng)參考原文。

(ii) SLMs 輔助提取 LLMs 提示:一些攻擊方法通過(guò) SLMs 逆向生成 Prompts。

(iii) SLMs 輔助 LLMs 微調(diào):SLMs 的微調(diào)參數(shù)差異可以模擬 LLMs 參數(shù)的演變,從而實(shí)現(xiàn) LLMs 的高效微調(diào)。

(iv) SLMs 在特定任務(wù)上輔助 LLMs 表現(xiàn):定制化的 SLMs 在某些特定任務(wù)上可能優(yōu)于 LLMs,而在困難樣本上可能表現(xiàn)不佳,因此 SLMs 和 LLMs 的合作可以在特定任務(wù)上實(shí)現(xiàn)更優(yōu)表現(xiàn)。

(v) 使用 SLMs 評(píng)估 LLMs:SLMs 在經(jīng)過(guò)微調(diào)后可以作為評(píng)估器,評(píng)估 LLMs 生成的更加格式自由的內(nèi)容。

未來(lái)的方向包括使用 SLMs 作為代理探索 LLMs 更多的行為模式,如優(yōu)化 Prompts、判斷缺失知識(shí)和評(píng)估數(shù)據(jù)質(zhì)量等,更多信息請(qǐng)參見(jiàn)原文第 8 章未來(lái)工作。

SLMs 的可信賴性

圖片

圖 4 Trustworthiness 分類

語(yǔ)言模型已成為我們?nèi)粘I钪胁豢苫蛉钡囊徊糠?,我們?duì)它們的依賴日益增加。然而,它們?cè)陔[私、公平等信任維度上存在局限,帶來(lái)了一定風(fēng)險(xiǎn)。因此,許多研究致力于評(píng)估語(yǔ)言模型的可信賴性。盡管目前的研究主要集中在大型語(yǔ)言模型(LLMs)上,我們?cè)诘?7 章關(guān)注 7B 參數(shù)及以下的模型和五個(gè)關(guān)鍵的信任場(chǎng)景:魯棒性、隱私性、可靠性、安全性和公平性,詳見(jiàn)圖 4。在魯棒性方面,我們討論了對(duì)抗性魯棒性和分布外魯棒性兩種情況;在安全性方面,我們重點(diǎn)分析了誤導(dǎo)信息和毒性問(wèn)題;在可靠性方面,我們主要關(guān)注幻覺(jué)和諂媚現(xiàn)象。然而,大多數(shù)現(xiàn)有研究都集中在具有至少 7B 參數(shù)的模型上,這留下了對(duì)小型語(yǔ)言模型(SLMs)可信度全面分析的空白。因此,系統(tǒng)地評(píng)估 SLMs 的可信度并了解其在各種應(yīng)用中的表現(xiàn),是未來(lái)研究的重要方向。

總結(jié)

隨著對(duì)小型語(yǔ)言模型需求的增長(zhǎng),當(dāng)下研究文獻(xiàn)涵蓋了 SLMs 的多個(gè)方面,例如針對(duì)特定應(yīng)用優(yōu)化的訓(xùn)練技術(shù)如量化感知訓(xùn)練和選擇性架構(gòu)組件。盡管 SLMs 性能受到認(rèn)可,但其潛在的可信度問(wèn)題,如幻覺(jué)產(chǎn)生和隱私泄露風(fēng)險(xiǎn),仍需注意。當(dāng)前缺乏全面調(diào)查徹底探索 LLMs 時(shí)代 SLMs 的這些工作。本文旨在提供詳盡調(diào)查,分析 LLMs 時(shí)代 SLMs 的各個(gè)方面及未來(lái)發(fā)展。詳見(jiàn)我們的綜述原文。

責(zé)任編輯:張燕妮 來(lái)源: 機(jī)器之心
相關(guān)推薦

2024-10-31 15:00:00

AI模型

2024-12-02 01:18:54

2018-08-31 16:07:30

2020-07-27 10:40:35

C++11語(yǔ)言代碼

2024-04-16 14:13:03

人工智能語(yǔ)言模型

2019-08-15 09:35:03

2025-05-08 10:25:00

Netty網(wǎng)絡(luò)編程框架

2022-08-16 15:17:37

機(jī)器學(xué)習(xí)算法模型

2023-10-28 13:29:27

2022-06-02 10:29:23

神經(jīng)網(wǎng)絡(luò)AI計(jì)算機(jī)

2020-08-04 07:02:00

TCPIP算法

2017-10-24 09:53:28

2025-05-15 08:20:01

2023-09-07 20:33:08

2024-01-02 07:15:59

大模型數(shù)據(jù)庫(kù)企業(yè)知識(shí)管家

2010-08-17 14:56:00

HCNE認(rèn)證

2011-04-15 12:25:21

BGP路由

2016-05-30 17:31:34

Spring框架

2023-11-22 11:29:28

2025-04-29 08:09:39

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)