偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

[ I am Jarvis ] :聊聊 FaceID 背后的深度學(xué)習(xí)視覺(jué)算法

人工智能 深度學(xué)習(xí) 算法
在上周發(fā)布的iPhoneX中,最吸引我的,不是那蠢萌的兔耳朵,而是蘋果的FaceID。在蘋果用FaceID取代TouchID的背后,是強(qiáng)大的視覺(jué)算法支持,讓iPhoneX有能力識(shí)別各種欺騙和偽裝,從而敢于將FaceID作為最重要的安全校驗(yàn)手段。

在上周發(fā)布的iPhoneX中,最吸引我的,不是那蠢萌的兔耳朵,而是蘋果的FaceID。在蘋果用FaceID取代TouchID的背后,是強(qiáng)大的視覺(jué)算法支持,讓iPhoneX有能力識(shí)別各種欺騙和偽裝,從而敢于將FaceID作為最重要的安全校驗(yàn)手段。

正如大家所知曉的,深度學(xué)習(xí)算法最近迅猛發(fā)展,推動(dòng)著人工智能的發(fā)展。2012年AlexNet在ImageNet數(shù)據(jù)集上的成功,使沉寂已久的卷積神經(jīng)網(wǎng)絡(luò)(Concolutional Neural Network, CNN)再次獲得人們的關(guān)注,VGG,ResNet等一系列模型的提出賦予了計(jì)算機(jī)接近人類的視覺(jué)能力。循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)在自然語(yǔ)言處理和語(yǔ)音識(shí)別等領(lǐng)域的應(yīng)用,突破了傳統(tǒng)模型難以把握時(shí)序數(shù)據(jù)的瓶頸。深度學(xué)習(xí)作為一種基礎(chǔ)能力,推動(dòng)著遷移學(xué)習(xí)、強(qiáng)化學(xué)習(xí)等一系列相關(guān)學(xué)科的發(fā)展,當(dāng)然,這里面也包括了視覺(jué)相關(guān)的變革。

為此,我們將多個(gè)經(jīng)典的深度學(xué)習(xí)算法和模型,融入到Jarvis算法庫(kù)中,并通過(guò)Tesla平臺(tái)給大家使用。目前Jarvis的深度學(xué)習(xí)類目,已經(jīng)集成了9種不同算法,分布于如下3大類:

本文將會(huì)重點(diǎn)介紹計(jì)算機(jī)視覺(jué)領(lǐng)域的幾種經(jīng)典算法,包括其原理、模型和適用場(chǎng)景。其他領(lǐng)域之后也會(huì)陸續(xù)有文章,請(qǐng)大家要持續(xù)關(guān)注喲~

計(jì)算機(jī)視覺(jué)概要

計(jì)算機(jī)視覺(jué)是一門研究如何使機(jī)器“看懂”世界的科學(xué)。計(jì)算機(jī)視覺(jué)采用圖像處理、模式識(shí)別和人工智能技術(shù)相結(jié)合的手段,著重于對(duì)一幅或多幅圖像進(jìn)行分析,從而獲得需要的信息。因此計(jì)算機(jī)視覺(jué)也可以看做是研究如何使人工系統(tǒng)從圖像或多維數(shù)據(jù)中“感知”的科學(xué)。具體來(lái)說(shuō),計(jì)算機(jī)視覺(jué)包含物體的檢測(cè)和識(shí)別、物體跟蹤、圖像恢復(fù)(移除噪聲等)和場(chǎng)景重建等。

從2012年Alexnet摘下視覺(jué)領(lǐng)域競(jìng)賽ILSVRC的桂冠以來(lái),Deep Learning便一發(fā)不可收拾,ILSVRC每年都不斷被深度學(xué)習(xí)刷榜。下圖中的這些模型,代表了深度視覺(jué)領(lǐng)域發(fā)展的里程碑。隨著模型變得越來(lái)越深,Top-5的錯(cuò)誤率也越來(lái)越低,在Resnet上的結(jié)果已經(jīng)達(dá)到了3.5%附近,而在同樣的ImageNet數(shù)據(jù)集上,人眼的辨識(shí)錯(cuò)誤率大概在5.1%,也就是說(shuō)深度學(xué)習(xí)模型的識(shí)別能力已經(jīng)超過(guò)了人類。

(http://ai.51cto.com/art/201704/538154.htm)

經(jīng)典算法和模型

Alexnet、VGG等網(wǎng)絡(luò)不僅在ImageNet上取得了很好的成績(jī),而且還可以被用于其他場(chǎng)景。為了方便用戶能靈活快速地訓(xùn)練這些模型,我們?cè)贘arvis中,集成了這些算法。用戶可以在Tesla上直接拖出對(duì)應(yīng)算法節(jié)點(diǎn),無(wú)需再編寫復(fù)雜的網(wǎng)絡(luò)定義和模型訓(xùn)練代碼,就可以對(duì)相應(yīng)的圖片進(jìn)行訓(xùn)練,得到一個(gè)基本可用的模型。當(dāng)然了,如果要效果好的話,還是要自己耐心慢慢調(diào)試的哈~

1. AlexNet

AlexNet的網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示,可以看到AlexNex在大體結(jié)構(gòu)上仍遵循了傳統(tǒng)CNN的原則,由卷積、下采樣和全連接層逐一構(gòu)成。圖中詭異的“上下分層”的畫法其實(shí)是指GPU的并行。

(https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf)

AlexNet在ImageNet上能取得較好的成績(jī),除了利用較深和較寬的網(wǎng)絡(luò)結(jié)構(gòu)來(lái)增強(qiáng)學(xué)習(xí)能力外,在數(shù)據(jù)處理和訓(xùn)練技巧上還有以下幾點(diǎn)值得借鑒:

  • Data Augmentation

Data Augmentation(數(shù)據(jù)增強(qiáng))是一種在基礎(chǔ)數(shù)據(jù)上進(jìn)行一系列操作,從而得到更多數(shù)據(jù),來(lái)增強(qiáng)數(shù)據(jù)集的多樣性的手段,可以在一定程度上減少過(guò)擬合。AlexNet在ImageNet上訓(xùn)練時(shí)用到的數(shù)據(jù)增強(qiáng)方式有以下幾種:

水平翻轉(zhuǎn)

隨機(jī)裁剪

顏色/光照變化等

  • Dropout

Dropout是指在深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練過(guò)程中,對(duì)于神經(jīng)網(wǎng)絡(luò)單元,按照一定的概率將其暫時(shí)從網(wǎng)絡(luò)中丟棄。對(duì)于隨機(jī)梯度下降來(lái)說(shuō),由于是隨機(jī)丟棄,因此可以看做每一個(gè)mini-batch都在訓(xùn)練不同的網(wǎng)絡(luò)。它是防止網(wǎng)絡(luò)過(guò)擬合,增強(qiáng)模型泛化性的一個(gè)有效方法。

下圖左邊是常見(jiàn)的層連接,每一次dropout都相當(dāng)于從原始的網(wǎng)絡(luò)中找到一個(gè)更“瘦”的結(jié)構(gòu),像右圖那樣。在訓(xùn)練階段,我們?cè)O(shè)定一個(gè)dropout因子p,范圍為0-1,表示在前向計(jì)算階段需要隨機(jī)斷開的連接的比例,并且在反向傳播時(shí)只更新沒(méi)有斷開的權(quán)重值。在測(cè)試階段則需要使用全部的連接,但這些權(quán)重都需要乘上1-p。

需要注意的是,每一次的斷開和更新都是以p的概率隨機(jī)實(shí)現(xiàn)的,因此每次迭代時(shí)的斷開都不一樣。對(duì)于一個(gè)有n個(gè)節(jié)點(diǎn)的神經(jīng)網(wǎng)絡(luò),假設(shè)dropout因子p=0.5,那么在前向的次數(shù)足夠多的情況下,在整個(gè)訓(xùn)練過(guò)程中會(huì)得到2^n種連接組合,也就相當(dāng)于訓(xùn)練了2^n個(gè)模型,***得到的是2^n個(gè)模型的組合。

(http://blog.csdn.net/stdcoutzyx/article/details/49022443)

ReLU激活函數(shù)

ReLu激活函數(shù)與傳統(tǒng)的Tanh或Logistic函數(shù)相比有以下幾個(gè)優(yōu)點(diǎn):

  • 前向計(jì)算和反向求偏導(dǎo)的過(guò)程都非常簡(jiǎn)單,沒(méi)有復(fù)雜的指數(shù)或除法之類的操作
  • 不像tanh和logistic那樣有”flat spot”,因此不容易發(fā)生梯度彌散的問(wèn)題
  • 關(guān)閉了左邊,可以使很多隱層輸出為0,因此使網(wǎng)絡(luò)變得稀疏,有一定的正則化作用,可以緩解過(guò)擬合

Relu函數(shù)的缺點(diǎn)也體現(xiàn)在被關(guān)閉的左邊部分,如果某些節(jié)點(diǎn)的輸出落在函數(shù)左邊,那么其將“永無(wú)翻身之日”。為了解決該問(wèn)題后來(lái)又出現(xiàn)了pRelu等改進(jìn)的激活函數(shù),即給函數(shù)左邊也賦予一定的梯度,在保證非線性的同時(shí)不至于讓某些節(jié)點(diǎn)“死掉”。

(http://gforge.se/2015/06/benchmarking-relu-and-prelu/)

  • 局部響應(yīng)歸一化(Local Response Normalization,LRN)

神經(jīng)生物學(xué)上有一個(gè)概念叫做“側(cè)抑制(lateral inhibitio)”,指被激活的神經(jīng)元對(duì)相鄰神經(jīng)元有一定的抑制作用。

LRN就是借鑒側(cè)抑制的思想來(lái)對(duì)局部神經(jīng)元的活動(dòng)創(chuàng)建競(jìng)爭(zhēng)機(jī)制,使響應(yīng)比較大的值相對(duì)更大,從而提高模型的泛化能力。LRN有兩種歸一化模式:通道內(nèi)和通道間,具體可以參考該篇文章。在論文的ImageNet的實(shí)驗(yàn)中,LRN可以降低1.2%的top-5錯(cuò)誤率,但從我們?cè)谄渌麛?shù)據(jù)集上的實(shí)驗(yàn)來(lái)看,LRN提升訓(xùn)練效果并不是那么顯著,因此可以看到LRN的操作并不是適用于所有場(chǎng)景的,還是要多實(shí)驗(yàn)才能出結(jié)果。

  • 交疊的pooling

顧名思義,就是指在做pooling的時(shí)候也會(huì)存在overlap的部分。一般來(lái)說(shuō)pooling是將輸入的結(jié)果進(jìn)行分塊處理,通過(guò)提取該塊的***值(max pooling)或平均值(average pooling)來(lái)實(shí)現(xiàn)下采樣的過(guò)程,這里的塊間是相互不交疊的。在AlexNet中卻會(huì)有overlap的部分。和LRN一樣,這個(gè)trick不一定適用于所有場(chǎng)景。

綜合以上幾個(gè)技巧,整體來(lái)看,AlexNet還是非常經(jīng)典的一個(gè)算法。所以我們將AlexNet集成到Jarvis的深度學(xué)習(xí)算法的視覺(jué)類目下。在實(shí)現(xiàn)上,我們根據(jù)AlexNet原本的構(gòu)建和訓(xùn)練方式、參考Alex發(fā)表的《One weird trick for parallelizing convolutional neural networksc》這篇文章,做了如下幾個(gè)事情,包括:

  • 移除了LRN層,并將參數(shù)的初始化改成xavier方式。
  • 激活函數(shù)使用Relu函數(shù)
  • 正則化選擇L2正則化
  • 在fc6和fc7兩個(gè)全連接層使用系數(shù)為0.5的dropout操作
  • 自動(dòng)Resize:在數(shù)據(jù)的輸入上,給定的輸入圖像是224x224x3的大小,如果讀取到的圖像大于該尺寸,則會(huì)將其隨機(jī)crop到224x224x3,如果讀取到的圖像小于該尺寸,則會(huì)將其resize到224x224x3。

另外,我們對(duì)輸入圖像也提供了一些data augmentation的操作,包括水平翻轉(zhuǎn)、顏色、光照變化等,文章后部分會(huì)有相關(guān)參數(shù)的描述。

2. VGG16

VGG16繼承了alexnet的框架,但其通過(guò)加深卷積層數(shù)的方法獲得了比AlexNet更高的圖像識(shí)別率,是一種比AlexNet更深的網(wǎng)絡(luò)結(jié)構(gòu),如下圖所示,更詳細(xì)的網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)可以參考該論文。

(https://www.cs.toronto.edu/~frossard/post/vgg16/ )

與AlexNet相比,VGG16明顯的不同之處在于:

  • 連續(xù)的convolution塊和較小的filter size

通過(guò)網(wǎng)絡(luò)結(jié)構(gòu)圖可以看到,vgg16中含有多個(gè)連續(xù)的convolution操作(圖中黑色框部分),而這些卷積層的卷積核大小都為3x3,相比AlexNet的7x7小很多??梢岳斫獬蒝GG通過(guò)降低filter的大小,同時(shí)增加卷積層數(shù)來(lái)達(dá)到同樣的效果。

This can be seen as imposing a regularisation on the 7 × 7 conv. filters, forcing them to have a decomposition through the 3 × 3 filters

較小的卷積核在一定程度上減少了需要訓(xùn)練的權(quán)重個(gè)數(shù),假設(shè)輸入和輸出的channel數(shù)都為C,在7x7大小的卷積核下,該層的權(quán)重個(gè)數(shù)為7x7xCxC=49xCxC,而此時(shí)VGG中連續(xù)的3個(gè)卷積層的權(quán)重個(gè)數(shù)為3x3x3xCxC=27xCxC。權(quán)重個(gè)數(shù)的減少有利于網(wǎng)絡(luò)的訓(xùn)練和泛化。

  • 通道數(shù)(channels)增多

對(duì)比AlexNet和VGG可以發(fā)現(xiàn)AlexNet的channel數(shù)明顯小于VGG。如此一來(lái),網(wǎng)絡(luò)可以對(duì)輸入提取更豐富的特征。VGG之所以能夠達(dá)到更高的準(zhǔn)確率,與通道數(shù)的增多有較大關(guān)系。

VGG16也被集成到Jarvis的深度學(xué)習(xí)算法的視覺(jué)模塊下。除了網(wǎng)絡(luò)結(jié)構(gòu)的定義不同外,其他都與Alexnet相似,包括全連接層的dropout設(shè)置,Relu激活函數(shù)和L2的正則化。

  • 3. VGG19

VGG19和上面小節(jié)所述的VGG16其實(shí)出自同一篇論文,是一種方法的兩種不同配置。VGG19的網(wǎng)絡(luò)結(jié)構(gòu)與VGG16非常相似,差別在于VGG19在第3、4、5個(gè)“卷積塊”里分別加多了一個(gè)卷積層,因此比VGG16多了3個(gè)weight layer。這里就不再贅述。

除了上述的AlexNet和VGG系列的網(wǎng)絡(luò)結(jié)構(gòu)外,Jarvis還會(huì)逐步集成Googlenet,Resnet等,歡迎大家持續(xù)關(guān)注。

自定義網(wǎng)絡(luò)

經(jīng)典算法雖好,但是總會(huì)有一定的局限性的。為了提供更好的靈活度,Jarvis上還集成了基于卷積神經(jīng)網(wǎng)絡(luò)的分類和回歸算法,其***優(yōu)點(diǎn)是可以對(duì)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行靈活的自定義,從而滿足不同場(chǎng)景下的需求。

在TensorFlow中定義一個(gè)卷積+激活層通常需要如下幾行代碼:

  1. with tf.name_scope('conv2'as scope: 
  2.   kernel = tf.Variable(tf.truncated_normal([5, 5, 96, 256], dtype=tf.float32,stddev=1e-1), name='weights'
  3.   biases = tf.Variable(tf.constant(0.0, shape=[256], dtype=tf.float32),trainable=Truename='biases'
  4.   conv2 = tf.nn.conv2d(pool1, kernel, [1, 1, 1, 1], padding='SAME'
  5.   conv2 = tf.nn.relu(tf.nn.bias_add(conv2, biases)) 

這還只是一個(gè)卷積層的構(gòu)造,如果我們要構(gòu)建的網(wǎng)絡(luò)由十幾或者幾十層組成,則估計(jì)要敲好幾百行代碼了,而且重點(diǎn)是你就算復(fù)制黏貼相同性質(zhì)的層也不一定找得準(zhǔn)眼花繚亂的參數(shù)啊。

好在tensorflow也支持一些接口的高級(jí)抽象如slim、keras和tensorlayer等,這樣一個(gè)卷積層就可以一句話寫完,比如在slim可以如此定義一個(gè)卷積層操作:

net = layers.conv2d(inputs, 64, [11, 11], 4, padding='VALID', scope='conv1')

盡管這些高級(jí)接口使網(wǎng)絡(luò)的定義簡(jiǎn)便了不少,但如果在訓(xùn)練過(guò)程中要多次調(diào)整網(wǎng)絡(luò)結(jié)構(gòu),這樣hardcode的形式則仍然很不方便。

鑒于以上,我們?cè)趖esla上實(shí)現(xiàn)CNN時(shí),將網(wǎng)絡(luò)結(jié)構(gòu)單獨(dú)抽出來(lái)作為一個(gè)可修改的參數(shù)傳入到算法中。該網(wǎng)絡(luò)參數(shù)其實(shí)是一個(gè)json文件,文件中的每一行表示一個(gè)層,***幾行表示數(shù)據(jù)輸入的一些信息。

一個(gè)CifarNet的網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示:

(https://inclass.kaggle.com/c/computer-vision-cs543-ece549)

將該CifarNet轉(zhuǎn)成我們自定義的json文件后示例如下:

  1.   "layer1" : { "operation""conv""maps": 64, "kernel_height": 5, "kernel_width": 5, "stride_height": 1,"stride_width": 1, "padding""SAME""activation_func""relu"},  
  2.   "layer2" : { "operation""max_pool""kernel_height": 3,"kernel_width":3,"stride_height": 2,"stride_width":2, "padding""SAME"},  
  3.   "layer3" : { "operation""conv""maps": 64, "kernel_height": 5,"kernel_width":5, "stride_height": 1,"stride_width":1, "padding""SAME""activation_func""relu"},  
  4.   "layer4" : { "operation""max_pool""kernel_height": 3,"kernel_width":3, "stride_height": 2,"stride_width":2, "padding""SAME"},  
  5.   "layer5" : { "operation""fc""maps": 384, "dropout_rate": 1.0, "activation_func""relu"},  
  6.   "layer6" : { "operation""fc""maps": 192, "dropout_rate": 1.0, "activation_func""relu"},  
  7.   "layer7" : { "operation""fc""maps": 100}, 
  8.   "initial_image_height": 32, "initial_image_width": 32, 
  9.   "input_image_height": 32, "input_image_width": 32, 
  10.   "normalize": 1,"crop": 1,"whitening": 1,"contrast": 1,"flip_left_right": 1,"brightness": 1 

還有更懶的親們甚至可以直接復(fù)制這份模板,然后按自己的網(wǎng)絡(luò)定義更改一下里面的參數(shù)就可以了。在tesla界面運(yùn)行時(shí),如果需要修改網(wǎng)絡(luò)結(jié)構(gòu),可以直接在界面右邊的參數(shù)配置編輯該json文件,不需要再修改并上傳代碼啦~~

基于上述的自定義網(wǎng)絡(luò)結(jié)構(gòu)的特點(diǎn),我們配置了CNN的分類和回歸兩種算法。

1. CNN Classification

基于卷積神經(jīng)網(wǎng)絡(luò)CNN的分類算法。支持如上所述的網(wǎng)絡(luò)結(jié)構(gòu)自定義,可以適應(yīng)不同場(chǎng)景下的圖像分類任務(wù)。

2. CNN Regression

基于卷積神經(jīng)網(wǎng)絡(luò)CNN的回歸算法,與CNN classification類似,區(qū)別在于訓(xùn)練時(shí)用的是歐氏距離損失函數(shù),可以接受float類型的標(biāo)簽。注意在配置網(wǎng)絡(luò)結(jié)構(gòu)時(shí)***一層的feature map個(gè)數(shù)為1,而不是分類中的類別數(shù)。

Jarvis視覺(jué)算法的使用

目前,Jarvis主要通過(guò)Tesla平臺(tái)透出,其訓(xùn)練和使用都非常簡(jiǎn)單,總體來(lái)說(shuō)可以分為三個(gè)步驟:數(shù)據(jù)準(zhǔn)備、模型訓(xùn)練和模型使用

1. 數(shù)據(jù)準(zhǔn)備

在開始訓(xùn)練前,我們需要準(zhǔn)備好訓(xùn)練集和測(cè)試集數(shù)據(jù)。對(duì)于目前計(jì)算機(jī)視覺(jué)目錄下的算法,輸入都為圖像數(shù)據(jù),并且都需要轉(zhuǎn)換成tfrecord的格式。

打開Tesla的工作界面,在輸入->數(shù)據(jù)源下拖出數(shù)據(jù)集節(jié)點(diǎn),點(diǎn)擊該節(jié)點(diǎn),完整填寫界面右邊的參數(shù)配置選項(xiàng),便完成了一個(gè)數(shù)據(jù)節(jié)點(diǎn)的配置。轉(zhuǎn)換節(jié)點(diǎn)可以加在數(shù)據(jù)節(jié)點(diǎn)之后。為了方便用戶使用,我們會(huì)提供一個(gè)image->tfrecord的轉(zhuǎn)換工具,放在輸入->數(shù)據(jù)轉(zhuǎn)換目錄下。

2. 模型訓(xùn)練

在tesla工作流界面從左邊的深度學(xué)習(xí)算法下拖出想要訓(xùn)練的算法節(jié)點(diǎn)。點(diǎn)擊該節(jié)點(diǎn),右側(cè)會(huì)出現(xiàn)參數(shù)配置選項(xiàng),包含算法IO參數(shù),算法參數(shù)和資源配置參數(shù)。

  • 資源參數(shù)

指定模型訓(xùn)練時(shí)所需的GPU和CPU資源。

  • 算法IO參數(shù)

用于指定數(shù)據(jù)集、模型存儲(chǔ)和Tensorboard保存的ceph路徑,這里我們只需要指定數(shù)據(jù)集所在路徑,而模型存儲(chǔ)和Tensorboard路徑由Tesla默認(rèn)指定。

如果算法節(jié)點(diǎn)上有對(duì)應(yīng)的數(shù)據(jù)集節(jié)點(diǎn),則該數(shù)據(jù)集節(jié)點(diǎn)的數(shù)據(jù)路徑會(huì)自動(dòng)匹配到算法的數(shù)據(jù)輸入路徑,不想拖數(shù)據(jù)集節(jié)點(diǎn)的用戶也可以手動(dòng)填寫算法的數(shù)據(jù)輸入路徑。

  • 算法參數(shù)

用于指定訓(xùn)練過(guò)程中所需的參數(shù)。深度學(xué)習(xí)各算法的參數(shù)有一部分是相通的,如批處理大小、學(xué)習(xí)率和迭代次數(shù)等。但不同的算法也可能有自己特殊的參數(shù)。在下面的介紹中,我們將會(huì)在各算法的詳細(xì)介紹鏈接里找到對(duì)應(yīng)的參數(shù)解釋。

對(duì)于CNN Classification/Regression算法來(lái)說(shuō),由于支持網(wǎng)絡(luò)結(jié)構(gòu)的自定義,因此參數(shù)與上表會(huì)稍有不同。以工作流右側(cè)的參數(shù)配置項(xiàng)目為準(zhǔn)。

配置完各參數(shù)后,右鍵點(diǎn)擊該算法節(jié)點(diǎn),選擇起點(diǎn)運(yùn)行即可開始訓(xùn)練模型。在訓(xùn)練過(guò)程中可通過(guò)tensorflow控制臺(tái)查看log信息和tensorboard可視化,便于把握訓(xùn)練走向。

3. 模型收藏和使用

模型使用指用訓(xùn)練好的模型做預(yù)測(cè)工作。除了在剛訓(xùn)練完成時(shí)對(duì)模型做預(yù)測(cè)外,Tesla還貼心地提供了模型收藏功能,可以留待以后再做預(yù)測(cè)。

模型收藏:在模型操作下選擇收藏模型可以將模型收藏到tesla界面左邊的個(gè)人模型目錄下,下一次需要使用的時(shí)候可以直接拖出模型節(jié)點(diǎn),填寫相應(yīng)的配置參數(shù),右鍵選擇起點(diǎn)運(yùn)行即可。

結(jié)語(yǔ)

本篇文章介紹了計(jì)算機(jī)視覺(jué)領(lǐng)域比較經(jīng)典的幾種深度學(xué)習(xí)算法,同時(shí)展示了如何在tesla平臺(tái)上快速靈活地訓(xùn)練和使用深度學(xué)習(xí)模型。在算法Demo下有各個(gè)算法的樣例工程供大家參考。

***,再一次提一下蘋果的FaceID。FaceID的成功啟用無(wú)疑是計(jì)算機(jī)視覺(jué)領(lǐng)域在人類生活應(yīng)用中的一大進(jìn)步,其低于指紋解鎖的破解率與背后的機(jī)器學(xué)習(xí)尤其是深度學(xué)習(xí)算法密不可分。當(dāng)然,F(xiàn)aceID背后的人臉識(shí)別技術(shù)肯定比本文中簡(jiǎn)單介紹的幾種算法復(fù)雜的多,這里我們就不深入探討了,因?yàn)榫退隳銌?wèn)我我也不知道呀,呵呵~~ 不過(guò),蘋果在去年的CVPR上發(fā)表了一篇SimGAN的文章《Learning from Simulated and Unsupervised Images through Adversarial Training》,有興趣的可以看一下。另外,蘋果在去年的NIPS上宣布會(huì)開始公開他們的研究成果,相信這一決定會(huì)給學(xué)術(shù)界和工業(yè)界帶來(lái)很多驚喜,大家可以期待一下。

***+1,本文由andymhuang和royalli指導(dǎo)完成,這里表示感謝。如果在使用算法時(shí)遇到相關(guān)問(wèn)題,歡迎咨詢我(joyjxu)或者royalli,也墻裂歡迎各種批評(píng)指正意見(jiàn)!

原文鏈接:https://www.qcloud.com/community/article/648055

作者:許杰

【本文是51CTO專欄作者“騰訊云技術(shù)社區(qū)”的原創(chuàng)稿件,轉(zhuǎn)載請(qǐng)通過(guò)51CTO聯(lián)系原作者獲取授權(quán)】

 

戳這里,看該作者更多好文

責(zé)任編輯:武曉燕 來(lái)源: 51CTO專欄
相關(guān)推薦

2018-03-15 15:31:51

2020-09-16 10:09:58

深度學(xué)習(xí)DNN計(jì)算

2021-04-16 11:31:24

人工智能深度學(xué)習(xí)

2021-09-05 18:26:42

2021-03-29 11:52:08

人工智能深度學(xué)習(xí)

2019-02-13 19:00:01

深度學(xué)習(xí)機(jī)器學(xué)習(xí)人工神經(jīng)

2020-06-10 08:28:51

Kata容器I

2017-07-25 15:21:42

數(shù)據(jù)挖掘深度學(xué)習(xí)模型

2017-07-13 10:03:43

優(yōu)化算法Adam深度學(xué)習(xí)

2017-01-24 11:51:14

騰訊云深度學(xué)習(xí)

2022-03-09 09:56:14

深度學(xué)習(xí)算法人工智能

2010-05-24 18:22:56

SNMP協(xié)議

2022-02-18 08:26:12

TopK數(shù)組面試題

2024-02-22 10:17:39

AI模型

2019-12-11 13:24:57

深度學(xué)習(xí)數(shù)據(jù)結(jié)構(gòu)軟件

2016-05-03 15:28:15

人工智能深度學(xué)習(xí)機(jī)器視覺(jué)

2021-08-31 06:51:18

Babel前端開發(fā)

2023-06-02 10:33:35

2022-07-13 10:20:14

自動(dòng)駕駛3D算法

2024-03-14 13:46:41

深度學(xué)習(xí)人工智能
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)