偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

騰訊AI Lab正式開源業(yè)內(nèi)大規(guī)模多標簽圖像數(shù)據(jù)集

新聞 開源
騰訊 AI Lab 宣布正式開源“Tencent ML-Images”項目,該項目由多標簽圖像數(shù)據(jù)集 ML-Images,以及業(yè)內(nèi)目前同類深度學習模型中精度最高的深度殘差網(wǎng)絡 ResNet-101 構(gòu)成。

[[246744]]

騰訊 AI Lab 宣布正式開源“Tencent ML-Images”項目,該項目由多標簽圖像數(shù)據(jù)集 ML-Images,以及業(yè)內(nèi)目前同類深度學習模型中精度***的深度殘差網(wǎng)絡 ResNet-101 構(gòu)成。

  該項目的開源,是騰訊 AI Lab 在計算機視覺領域所累積的基礎能力的一次釋放,為人工智能領域的科研人員和工程師提供了充足的高質(zhì)量訓練數(shù)據(jù),及簡單易用、性能強大的深度學習模型,促進人工智能行業(yè)共同發(fā)展。

  項目訪問地址:

  https://github.com/Tencent/tencent-ml-images

  騰訊 AI Lab 此次公布的圖像數(shù)據(jù)集 ML-Images,包含了 1800 萬圖像和 1.1 萬多種常見物體類別,在業(yè)內(nèi)已公開的多標簽圖像數(shù)據(jù)集中規(guī)模***,足以滿足一般科研機構(gòu)及中小企業(yè)的使用場景。此外,基于 ML-Images 訓練得到的深度殘差網(wǎng)絡 ResNet-101,具有優(yōu)異的視覺表示能力和泛化性能,在當前業(yè)內(nèi)同類模型中精度***,將為包括圖像、視頻等在內(nèi)的視覺任務提供強大支撐,并助力圖像分類、物體檢測、物體跟蹤、語義分割等技術(shù)水平的提升。

  本次正式開源,其主要內(nèi)容包括:

1、ML-Images 數(shù)據(jù)集的全部圖像 URLs,以及相應的類別標注。因原始圖像版權(quán)問題,此次開源將不直接提供原始圖像,用戶可利用騰訊 AI Lab 提供的下載代碼和 URLs 自行下載圖像。

2、ML-Images 數(shù)據(jù)集的詳細介紹。包括圖像來源、圖像數(shù)量、類別數(shù)量、類別的語義標簽體系、標注方法,以及圖像的標注數(shù)量等統(tǒng)計量。

3、完整的代碼和模型。騰訊 AI Lab 提供的代碼涵蓋從圖像下載和圖像預處理,到基于 ML-Images 的預訓練和基于 ImageNet 的遷移學習,再到基于訓練所得模型的圖像特征提取的完整流程。項目提供了基于小數(shù)據(jù)集的訓練示例,以方便用戶快速體驗該訓練流程。項目還提供了具有極高精度的 ResNet-101 模型(在單標簽基準數(shù)據(jù)集 ImageNet 的驗證集上的 top-1 精度為 80.73%)。用戶可根據(jù)自身需求,隨意選用該項目的代碼或模型。

  以深度神經(jīng)網(wǎng)絡為典型代表的深度學習技術(shù)已經(jīng)在很多領域充分展現(xiàn)出其優(yōu)異的能力,尤其是計算機視覺領域,包括圖像和視頻的分類、理解和生成等重要任務。然而,要充分發(fā)揮出深度學習的視覺表示能力,必須建立在充足的高質(zhì)量訓練數(shù)據(jù)、優(yōu)秀的模型結(jié)構(gòu)和模型訓練方法,以及強大的的計算資源等基礎能力之上。

  各大科技公司都非常重視人工智能基礎能力的建設,都建立了僅面向其內(nèi)部的大型圖像數(shù)據(jù)集,例如谷歌的 JFT-300M 和 Facebook 的 Instagram 數(shù)據(jù)集。但這些數(shù)據(jù)集及其訓練得到的模型都沒有公開,對于一般的科研機構(gòu)和中小企業(yè)來說,這些人工智能基礎能力有著非常高的門檻。

  當前業(yè)內(nèi)公開的***規(guī)模的多標簽圖像數(shù)據(jù)集是谷歌公司的 Open Images, 包含 900 萬圖像和 6000 多物體類別。騰訊 AI Lab 此次開源的 ML-Images 數(shù)據(jù)集包括 1800 萬圖像和 1.1 萬多常見物體類別,或?qū)⒊蔀樾碌男袠I(yè)基準數(shù)據(jù)集。

  此外,基于 ML-Images 訓練得到的 ResNet-101 模型,具有優(yōu)異的視覺表示能力和泛化性能。通過遷移學習,該模型在 ImageNet 驗證集上取得了 80.73% 的 top-1 分類精度,超過谷歌同類模型(遷移學習模式)的精度,且值得注意的是,ML-Images 的規(guī)模僅為 JFT-300M 的約1/17。這充分說明了 ML-Images 的高質(zhì)量和訓練方法的有效性。詳細對比如下表。

  注:微軟 ResNet-101 模型為非遷移學習模式下訓練得到,即 1.2M 預訓練圖像為原始數(shù)據(jù)集 ImageNet 的圖像。

  騰訊 AI Lab 此次開源的“Tencent ML-Images”項目,展現(xiàn)了騰訊在人工智能基礎能力建設方面的努力,以及希望通過基礎能力的開放促進行業(yè)共同發(fā)展的愿景。

  “Tencent ML-Images”項目的深度學習模型,目前已在騰訊多項業(yè)務中發(fā)揮重要作用,如“天天快報”的圖像質(zhì)量評價與推薦功能,其后臺測試的日調(diào)用量已達 1000 萬次。

  如下圖所示,天天快報新聞封面圖像的質(zhì)量得到明顯提高。

  左圖為優(yōu)化前,右圖為優(yōu)化后

  此外,騰訊 AI Lab 團隊還將基于 Tencent ML-Images 的 ResNet-101 模型遷移到很多其他視覺任務,包括圖像物體檢測,圖像語義分割,視頻物體分割,視頻物體跟蹤等。這些視覺遷移任務進一步驗證了該模型的強大視覺表示能力和優(yōu)異的泛化性能。“Tencent ML-Images”項目未來還將在更多視覺相關(guān)的產(chǎn)品中發(fā)揮重要作用。

  自 2016 年騰訊***在 GitHub 上發(fā)布開源項目(https://github.com/Tencent),目前已累積開源覆蓋人工智能、移動開發(fā)、小程序等領域的 57 個項目。為進一步貢獻開源社區(qū),騰訊相繼加入 Hyperledger、LF Networking 和開放網(wǎng)絡基金會,并成為 LF 深度學習基金會首要創(chuàng)始成員及 Linux 基金會白金會員。作為騰訊“開放”戰(zhàn)略在技術(shù)領域的體現(xiàn),騰訊開源將繼續(xù)對內(nèi)推動技術(shù)研發(fā)向共享、復用和開源邁進,向外釋放騰訊研發(fā)實力,為國內(nèi)外開源社區(qū)提供技術(shù)支持,注入研發(fā)活力。

責任編輯:張燕妮 來源: 騰訊科技
相關(guān)推薦

2018-09-10 15:02:51

開源技術(shù) 數(shù)據(jù)

2023-10-26 01:26:04

Vaex數(shù)據(jù)數(shù)據(jù)集

2022-12-14 14:55:51

模型數(shù)字

2024-10-16 08:00:00

2024-09-20 17:41:07

2010-09-09 10:16:17

企業(yè)郵箱產(chǎn)品優(yōu)化263網(wǎng)絡通信

2016-04-15 00:43:13

2016-02-02 10:05:39

2016-01-15 09:59:12

機器學習數(shù)據(jù)集

2014-06-20 10:34:20

阿里云帶寬數(shù)據(jù)中心

2024-04-02 14:29:12

網(wǎng)絡安全數(shù)據(jù)泄露

2021-04-12 17:47:25

Facebook開源AI

2015-08-10 10:34:06

2017-05-08 14:56:07

開源Prophet預測

2024-11-26 19:29:35

2018-02-28 10:11:50

騰訊框架開源

2010-07-15 09:53:02

云計算計算網(wǎng)絡

2022-12-09 14:07:11

框架開源
點贊
收藏

51CTO技術(shù)棧公眾號