偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

騰訊Hunyuan超越Llama 3,成為NLP領域新霸主 原創(chuàng)

發(fā)布于 2024-11-6 15:58
瀏覽
0收藏

騰訊最近發(fā)布了一款名為Hunyuan的先進Moe(Mixture of Experts)模型,該模型在多個基準測試中表現(xiàn)出色,超越了Llama 3,成為自然語言處理(NLP)領域的新領導者。地址如下:

  • github: https://github.com/Tencent/Tencent-Hunyuan-Large/blob/main/README_CN.md
  • hf: https://huggingface.co/tencent/Tencent-Hunyuan-Large

以下是Hunyuan模型的一些關鍵優(yōu)勢:

  1. 合成數(shù)據(jù)增強:Hunyuan-Large通過合成數(shù)據(jù)增強訓練,能夠學習到更豐富的表示,處理長上下文輸入,并更好地泛化到未見數(shù)據(jù)。
  2. KV緩存壓縮:采用分組查詢注意力(GQA)和跨層注意力(CLA)策略,顯著減少了KV緩存的內存占用和計算開銷,提高了推理吞吐。
  3. 專家特定學習率縮放:為不同專家設置不同的學習率,確保每個子模型都能有效地從數(shù)據(jù)中學習,并為整體性能做出貢獻。
  4. 長上下文處理能力:預訓練模型支持高達256K的文本序列,Instruct模型支持128K的文本序列,顯著提升了長上下文任務的處理能力。
  5. 廣泛的基準測試:在多種語言和任務上進行廣泛實驗,驗證了Hunyuan-Large的實際應用效果和安全性。

推理框架: 

騰訊為Hunyuan-Large模型提供了vLLM-backend推理框架。該框架在vLLM開源框架的基礎上進行了適配,新增的CLA結構可以節(jié)省顯存,保障超長文本場景。通過FP8量化優(yōu)化,相比FP16/BF16常規(guī)量化,在最大限度保障精度的條件下,節(jié)省50%顯存,吞吐提升70%。

訓練框架: 

Hunyuan-Large模型已經支持huggingface格式,用戶可以采用hf-deepspeed框架進行模型精調。同時,騰訊也支持利用flash-attn進行訓練加速,并開放了相關的訓練腳本和模型實現(xiàn),方便研發(fā)者進行后續(xù)的模型訓練和精調。

Benchmark評估榜單: 

在多個基準測試中,Hunyuan-Large預訓練模型與具有相似激活參數(shù)大小的Dense和MoE競爭對手相比,實現(xiàn)了最佳的整體性能。在常識理解和推理以及經典的NLP任務,如QA和閱讀理解任務方面表現(xiàn)出色。在數(shù)學能力方面,Hunyuan-Large在GSM8K和Math數(shù)學數(shù)據(jù)集上優(yōu)于所有基線,在CMATH中文數(shù)據(jù)集上也取得了最好的成績。同時,Hunyuan-Large在所有中文任務中實現(xiàn)了整體最佳的性能。

騰訊Hunyuan超越Llama 3,成為NLP領域新霸主-AI.x社區(qū)

Hunyuan-Large-Instruct與具有相似激活參數(shù)的llm相比在大多數(shù)的任務上實現(xiàn)了一致的性能提升。在不同類別的基準測試中,Instruct模型在MMLU和MATH數(shù)據(jù)集上取得了最好的性能。值得注意的是,在MMLU數(shù)據(jù)集上,表現(xiàn)出了顯著的提升, 相比與LLama3.1-405B模型高出2.6%。這種增強表明Hunyuan-Large-Instruct在廣泛的語言理解任務中具有優(yōu)越的理解和推理能力。該模型在MATH數(shù)據(jù)集上的表現(xiàn)進一步強調了它的實力,相比于LLama3.1-405B高出了3.6%的指標。值得注意的是,僅用520億個激活參數(shù)就實現(xiàn)了精度的飛躍,證明了Hunyuan-Large-Instruct的卓越能力。

騰訊Hunyuan超越Llama 3,成為NLP領域新霸主-AI.x社區(qū)

騰訊Hunyuan模型的開源,不僅展示了其在NLP領域的技術實力,也為全球的AI研究者和開發(fā)者提供了一個強大的工具,以推動NLP技術的發(fā)展。


本文轉載自公眾號哎呀AIYA

原文鏈接:??https://mp.weixin.qq.com/s/4AH3JE8PAXs6ZpBj0uHdDQ??

?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
收藏
回復
舉報
回復
相關推薦