偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

谷歌正式開源 Hinton 膠囊理論代碼,即刻用 TensorFlow 實(shí)現(xiàn)吧

新聞 開源
AI 研習(xí)社消息,相信大家對(duì)于「深度學(xué)習(xí)教父」Geoffery Hinton 在去年年底發(fā)表的膠囊網(wǎng)絡(luò)還記憶猶新,在論文 Dynamic Routing between Capsules 中,Hinton 團(tuán)隊(duì)提出了一種全新的網(wǎng)絡(luò)結(jié)構(gòu)。

[[219212]]

AI 研習(xí)社消息,相信大家對(duì)于「深度學(xué)習(xí)教父」Geoffery Hinton 在去年年底發(fā)表的膠囊網(wǎng)絡(luò)還記憶猶新,在論文 Dynamic Routing between Capsules 中,Hinton 團(tuán)隊(duì)提出了一種全新的網(wǎng)絡(luò)結(jié)構(gòu)。為了避免網(wǎng)絡(luò)結(jié)構(gòu)的雜亂無章,他們提出把關(guān)注同一個(gè)類別或者同一個(gè)屬性的神經(jīng)元打包集合在一起,好像膠囊一樣。在神經(jīng)網(wǎng)絡(luò)工作時(shí),這些膠囊間的通路形成稀疏激活的樹狀結(jié)構(gòu)(整個(gè)樹中只有部分路徑上的膠囊被激活)。這樣一來,Capsule 也就具有更好的解釋性。

在實(shí)驗(yàn)結(jié)果上,CapsNet 在數(shù)字識(shí)別和健壯性上都取得了不錯(cuò)的效果。詳情可以參見 終于盼來了Hinton的Capsule新論文,它能開啟深度神經(jīng)網(wǎng)絡(luò)的新時(shí)代嗎?

日前,該論文的第一作者 Sara Sabour 在 GitHub 上公布了論文代碼,大家可以馬上動(dòng)手實(shí)踐起來。雷鋒網(wǎng) AI 研習(xí)社將教程編譯整理如下:

所需配置:

執(zhí)行 test 程序,來驗(yàn)證安裝是否正確,諸如:

python layers_test.py 

快速 MNIST 測試:

python experiment.py --data_dir=$DATA_DIR/mnist_data/ --train=false \ --summary_dir=/tmp/ --checkpoint=$CKPT_DIR/mnist_checkpoint/model.ckpt-1 

快速 CIFAR10 ensemble 測試:

python experiment.py --data_dir=$DATA_DIR --train=false --dataset=cifar10 \ --hparams_override=num_prime_capsules=64,padding=SAME,leaky=true,remake=false \ --summary_dir=/tmp/ --checkpoint=$CKPT_DIR/cifar/cifar{}/model.ckpt-600000 \ --num_trials=7 

CIFAR10 訓(xùn)練指令:

python experiment.py --data_dir=$DATA_DIR --dataset=cifar10 --max_steps=600000\ --hparams_override=num_prime_capsules=64,padding=SAME,leaky=true,remake=false \ --summary_dir=/tmp/ 

MNIST full 訓(xùn)練指令:

  • 也可以執(zhí)行--validate=true as well 在訓(xùn)練-測試集上訓(xùn)練

  • 執(zhí)行 --num_gpus=NUM_GPUS 在多塊GPU上訓(xùn)練

python experiment.py --data_dir=$DATA_DIR/mnist_data/ --max_steps=300000\ --summary_dir=/tmp/attempt0/ 

MNIST baseline 訓(xùn)練指令:

python experiment.py --data_dir=$DATA_DIR/mnist_data/ --max_steps=300000\ --summary_dir=/tmp/attempt1/ --model=baseline 

To test on validation during training of the above model:

訓(xùn)練如上模型時(shí),在驗(yàn)證集上進(jìn)行測試(記住,在訓(xùn)練過程中會(huì)持續(xù)執(zhí)行指令):

  • 在訓(xùn)練時(shí)執(zhí)行 --validate=true 也一樣

  • 可能需要兩塊 GPU,一塊用于訓(xùn)練集,一塊用于驗(yàn)證集

  • 如果所有的測試都在一臺(tái)機(jī)器上,你需要對(duì)訓(xùn)練集、驗(yàn)證集的測試中限制 RAM 消耗。如果不這樣,TensorFlow 會(huì)在一開始占用所有的 RAM,這樣就不能執(zhí)行其他工作了

python experiment.py --data_dir=$DATA_DIR/mnist_data/ --max_steps=300000\ --summary_dir=/tmp/attempt0/ --train=false --validate=true

大家可以通過 --num_targets=2 和 --data_dir=$DATA_DIR/multitest_6shifted_mnist.tfrecords@10 在 MultiMNIST 上進(jìn)行測試或訓(xùn)練,生成 multiMNIST/MNIST 記錄的代碼在 input_data/mnist/mnist_shift.py 目錄下。

multiMNIST 測試代碼:

python mnist_shift.py --data_dir=$DATA_DIR/mnist_data/ --split=test --shift=6  --pad=4 --num_pairs=1000 --max_shard=100000 --multi_targets=true 

可以通過 --shift=6 --pad=6 來構(gòu)造 affNIST expanded_mnist

論文地址: https://arxiv.org/pdf/1710.09829.pdf

GitHub 地址: https://github.com/Sarasra/models/tree/master/research/capsules

 

責(zé)任編輯:張燕妮 來源: 雷鋒網(wǎng)
相關(guān)推薦

2018-04-30 18:07:51

谷歌開源編程

2018-01-27 21:26:46

谷歌GitHub功能

2022-03-23 15:19:00

低代碼開源阿里巴巴

2020-03-10 10:42:22

量子計(jì)算機(jī)芯片超算

2020-09-30 16:15:46

ThreadLocal

2013-10-15 09:21:40

2016-05-17 14:24:56

亞馬遜機(jī)器學(xué)習(xí)

2019-09-04 09:26:42

谷歌Android開發(fā)者

2018-05-04 14:11:34

SwiftPython開發(fā)

2020-03-12 12:31:01

開源谷歌量子AI

2019-05-14 09:53:31

代碼開發(fā)工具

2018-01-18 09:55:32

AI 大事件

2021-07-12 09:11:23

華為谷歌除名

2015-11-12 13:11:17

TensorFlow人工智能系統(tǒng)谷歌

2017-11-22 19:00:51

人工智能深度學(xué)習(xí)膠囊網(wǎng)絡(luò)

2013-12-25 13:26:15

開源開源專訪谷歌

2022-06-20 14:36:49

TensorFlow機(jī)器學(xué)習(xí)

2017-09-29 09:57:20

2020-04-17 14:48:30

代碼機(jī)器學(xué)習(xí)Python

2024-10-09 08:27:30

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)