偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

谷歌發(fā)布TF新工具:計(jì)算速度提升2倍,減少無效參數(shù)

新聞 前端
這是谷歌特意為移動設(shè)備和Web端開發(fā)的一系列新工具,可以在幾乎不影響AI模型推理準(zhǔn)確性的同時(shí),“修剪”模型大小,以提升模型推理速度。

   [[386682]]

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

一頓操作后,需要實(shí)時(shí)模糊背景的視頻,看起來流暢了不少:

谷歌發(fā)布TF新工具:計(jì)算速度提升2倍,減少無效參數(shù)

實(shí)時(shí)目標(biāo)檢測的延遲也更低了:

這是谷歌特意為移動設(shè)備Web端開發(fā)的一系列新工具,可以在幾乎不影響AI模型推理準(zhǔn)確性的同時(shí),“修剪”模型大小,以提升模型推理速度。

最好的情況下,能將AI模型的推理速度提升2倍,模型大小“縮水”一半。

這是怎么做到的?

“抽掉”部分網(wǎng)絡(luò)權(quán)重

這一過程,利用了AI、機(jī)器學(xué)習(xí)模型的稀疏性。

谷歌發(fā)布TF新工具:計(jì)算速度提升2倍,減少無效參數(shù)

稀疏性,指在神經(jīng)網(wǎng)絡(luò)模型中,可以將部分網(wǎng)絡(luò)的權(quán)重設(shè)置為0,以加快推理速度。

它的實(shí)現(xiàn)過程,有點(diǎn)像是玩只抽走積木的疊疊樂游戲。

用戶要在保證模型不會“坍塌”的同時(shí),抽走部分參數(shù)(將參數(shù)設(shè)置為0)。

[[386683]]

這是因?yàn)?,AI模型在進(jìn)行推理任務(wù)時(shí),往往涉及大量矩陣乘法運(yùn)算。

如果能在不影響推理結(jié)果的同時(shí),將矩陣中的部分參數(shù)設(shè)置成0,就能極大地加快矩陣運(yùn)算速度,縮短推理時(shí)間。

谷歌發(fā)布TF新工具:計(jì)算速度提升2倍,減少無效參數(shù)

目前,許多移動端的輕量級神經(jīng)網(wǎng)絡(luò)架構(gòu),如MobileNet和EfficientNetLite,主要由深度可分離卷積和1×1卷積組成。

其中1×1卷積耗費(fèi)的推理時(shí)間最多,占總計(jì)算量的65%以上。

在MobileNet中,1×1卷積的計(jì)算量甚至占模型總推理時(shí)間的85%。

谷歌發(fā)布TF新工具:計(jì)算速度提升2倍,減少無效參數(shù)

因此,1×1卷積層成為了稀疏化的最優(yōu)選擇。

TensofFlow Lite可用

此前,這種利用稀疏性加速推理的方法,應(yīng)用范圍并不廣泛。

一個(gè)原因,是神經(jīng)網(wǎng)絡(luò)本身難以解釋,導(dǎo)致稀疏化的過程也不好解釋,以至于缺乏稀疏化的工具。

谷歌發(fā)布TF新工具:計(jì)算速度提升2倍,減少無效參數(shù)

另一個(gè)原因,則是相應(yīng)設(shè)備如手機(jī),缺乏對稀疏化操作的支持。

現(xiàn)在,谷歌特意為移動設(shè)備和Web端,發(fā)布了一系列針對TensorFlow Lite、和XNNPACK浮點(diǎn)加速庫的稀疏化新工具。

利用這些稀疏化工具,神經(jīng)網(wǎng)絡(luò)就能變得更高效,用戶也能快速上手。

其中,XNNPACK庫包含了能檢測模型是否稀疏的方法,TF Lite工具包中則包含基于幅度的修剪、或RigL等讓模型“縮水”的方法。

整體稀疏化的過程如下:

  • 首先,從原始模型開始訓(xùn)練,在過程中逐漸將網(wǎng)絡(luò)中的部分權(quán)重設(shè)置為0,即“修剪”模型。
  • 然后,通過適當(dāng)增加訓(xùn)練時(shí)間,提升模型準(zhǔn)確度(不會比修剪前的模型差太多)。
  • 最后,獲得的稀疏AI推理模型,可以以壓縮格式有效存儲,比原始模型要更小。

這個(gè)工具支持一系列感知算法模型,包括MediaPipe的手部跟蹤模型:

以及Google Meet中的背景替換模型:

谷歌發(fā)布TF新工具:計(jì)算速度提升2倍,減少無效參數(shù)

當(dāng)然,除了谷歌自帶的AI模型以外,這些稀疏化工具也可以用在自己設(shè)計(jì)的AI模型中。

具體效果如何呢?

推理速度快2倍

下圖是原始模型和稀疏模型的對比。

谷歌發(fā)布TF新工具:計(jì)算速度提升2倍,減少無效參數(shù)

其中,藍(lán)色和黃色,分別對應(yīng)原始模型的32幀/秒、和16幀/秒的模型大小,紅色和綠色則是稀疏模型對應(yīng)的大小。

從圖中可以看見,經(jīng)過“修剪”的AI模型,無論是“手部跟蹤”、還是“背景替換”,模型大小都降低了接近一半以上。

而且,隨著稀疏程度的提高,推理時(shí)間也幾乎呈直線下降趨勢。

谷歌發(fā)布TF新工具:計(jì)算速度提升2倍,減少無效參數(shù)

但也要注意,不能一味地稀疏化模型,因?yàn)楫?dāng)模型的稀疏化程度高于70%的時(shí)候,模型的精度就會出現(xiàn)明顯的下降。

谷歌發(fā)布TF新工具:計(jì)算速度提升2倍,減少無效參數(shù)

因此,模型的實(shí)際稀疏效果,還是會和理論上有所出入。

在實(shí)際應(yīng)用上,Google Meet推理時(shí)間只降低了30%,但也已經(jīng)非常不錯(cuò)了。

還在發(fā)愁自己的AI模型太大,在移動設(shè)備中運(yùn)行效果不好的小伙伴,可以試著將自己的模型“縮縮水”了~

項(xiàng)目地址:
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/lite/delegates/xnnpack/README.md#sparse-inference

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2020-09-20 21:46:00

量子芯片網(wǎng)絡(luò)

2018-11-22 14:39:00

工具開源谷歌

2019-06-10 00:45:01

谷歌開源圖像識別

2021-09-24 09:28:34

計(jì)算數(shù)據(jù) 技術(shù)

2023-03-22 13:53:26

芯片英偉達(dá)

2022-03-07 09:38:51

計(jì)算開源阿里巴巴

2025-02-26 10:24:47

2015-12-09 14:35:55

量子計(jì)算機(jī)谷歌

2009-03-29 09:47:24

蘋果Iphone移動OS

2024-04-10 08:00:00

PostgresNoSQL

2023-03-29 07:22:06

公共預(yù)覽版Microsoft

2020-04-16 16:34:10

戴爾攻擊BIOS

2011-10-26 09:06:54

Windows管理工具

2025-05-20 11:54:01

Python管理uv

2014-04-01 09:52:46

MySQL

2017-05-11 11:30:43

MySQL查詢速度

2009-12-24 09:30:38

Opera性能測試

2011-03-06 09:57:34

Android

2023-04-21 10:10:07

Vite 4.3前端
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號