偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

四倍提速,字節(jié)跳動開源高性能訓練推理引擎LightSeq技術揭秘

原創(chuàng)
人工智能 機器學習
無論你是算法行業(yè)從業(yè)人員,還是熱衷于鉆研AI技術的開發(fā)者,相信你都能從本次分享中收獲一些技術經驗與創(chuàng)新靈感。

Transformer模型出自于Google團隊2017年發(fā)表的論文《Attention is all you need》,該論文中首次提出了使用Attention替換Seq2Seq模型循環(huán)結構的概念,給NLP領域帶來了極大沖擊。且隨著近年來研究的不斷推進,Transformer相關技術逐漸由自然語言處理流向其他領域。截止目前,Transformer系列模型已經成為了NLP、CV、ASR等領域的主流模型。

因此,如何更快地訓練和推理Transformer模型已成為業(yè)界的一個重要研究方向。低精度量化技術能夠通過降低數據的寬位來加速計算和通信過程,是現階段模型訓練推理加速的一個重要手段。但美中不足的是,量化會造成精度和效果的損失,需要通過量化感知和訓練等手段進行降損。針對以上痛點,字節(jié)跳動研發(fā)升級了LightSeq訓練推理加速引擎3.0版本,首次同步實現了精度無損的Transformer模型量化訓練和量化推理。

LightSeq通過int8 GEMM實現了真量化訓練過程,并非采用業(yè)界廣泛使用的偽量化方法,能夠實現模型訓練速度4倍以上的提升。而通過PACT等量化策略,可以將量化訓練的損失降到最低。在將量化模型導出為LightSeq支持格式后,可以進一步使用LightSeq量化推理引擎實現快速推理,在T4顯卡上提速最高可達70%。

在7月21日的【T·TALK】技術分享活動中,我們特別邀請到了字節(jié)跳動算法工程師、LightSeq核心開發(fā)者熊鷹老師做客直播間,為廣大觀眾揭秘字節(jié)跳動高性能訓練推理引擎LightSeq的技術原理與實踐細節(jié)。無論你是算法行業(yè)從業(yè)人員,還是熱衷于鉆研AI技術的開發(fā)者,相信你都能從本次分享中收獲一些別樣的技術經驗與創(chuàng)新靈感。

歡迎大家參與7月21日,晚上20:00【T·TALK】第12期技術分享活動

掃海報下方二維碼預約觀看


責任編輯:徐杰承 來源: 51CTO
相關推薦

2020-10-24 07:30:05

開源字節(jié)跳動模型

2022-03-21 15:06:10

模型字節(jié)跳動框架

2022-03-21 17:56:59

大模型訓練訓練框架

2023-04-07 12:30:04

開源ShmipcIPC

2022-04-26 15:09:14

優(yōu)化模型訓練

2024-08-01 08:40:00

2022-10-31 15:35:16

開源引擎

2018-12-06 10:07:49

微軟機器學習開源

2022-11-02 10:02:24

BitSail字節(jié)跳動數據集成

2024-09-23 08:15:11

2025-10-14 08:58:00

2025-06-05 08:40:00

2024-06-07 14:17:53

2020-03-13 10:36:19

KV存儲性能

2023-04-19 16:51:54

分布式Primus開源

2020-01-07 16:16:57

Kafka開源消息系統(tǒng)

2022-09-05 17:26:27

技術

2023-10-18 11:56:17

開源AI

2022-05-17 17:18:40

Kite字節(jié)跳動微服務框架

2021-02-04 10:22:32

前端開發(fā)技術
點贊
收藏

51CTO技術棧公眾號