偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

尋找CNN的弱點(diǎn),小心MNIST中的“套路”

人工智能 深度學(xué)習(xí)
CNN是現(xiàn)在十分火熱的模型,在很多圖像檢索問題上,CNN模型的效果在以往的基礎(chǔ)上有了很大的提高,但是CNN畢竟沒有把這些問題完全解決,CNN還是有它自己的弱點(diǎn)的。這個(gè)弱點(diǎn)也不能算作是它獨(dú)有的問題,但是由于它的效果實(shí)在太好了,很多人甚至對(duì)它產(chǎn)生了迷信,因此這盆冷水就潑到它身上了。

[[191828]]

CNN是現(xiàn)在十分火熱的模型,在很多圖像檢索問題上,CNN模型的效果在以往的基礎(chǔ)上有了很大的提高,但是CNN畢竟沒有把這些問題完全解決,CNN還是有它自己的弱點(diǎn)的。這個(gè)弱點(diǎn)也不能算作是它獨(dú)有的問題,但是由于它的效果實(shí)在太好了,很多人甚至對(duì)它產(chǎn)生了迷信,因此這盆冷水就潑到它身上了。

大神們看到了CNN模型的強(qiáng)大,但忍不住提出一個(gè)問題:CNN有沒有什么搞不定的地方?比方說我們用CNN構(gòu)建了一個(gè)人臉識(shí)別的模型,在訓(xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集上表現(xiàn)良好,但是會(huì)不會(huì)有一些用例是它會(huì)誤判的,而且我們可以找到規(guī)律生成這些用例?

我們可以想象,如果我們對(duì)之前識(shí)別正確的數(shù)據(jù)做輕微的改動(dòng),那么它還是有可能識(shí)別正確的。于是我們就有了一個(gè)方案,我們每將圖像做一點(diǎn)改動(dòng),就把圖像傳入CNN做一下測(cè)試,然后看看CNN的預(yù)測(cè)結(jié)果有沒有發(fā)生改變,如果沒有發(fā)生改變,我們就保存這個(gè)圖像,接著我們?cè)龠M(jìn)行下一輪的改動(dòng),經(jīng)過若干輪的改動(dòng)后,我們把生成的圖像輸出出來看看圖像會(huì)變成什么樣子。

這里我們將采用MNIST為例,以下的就是我們的改動(dòng)方案:

  1. 利用MNIST的訓(xùn)練集訓(xùn)練一個(gè)CNN的模型,我們的CNN模型結(jié)構(gòu)是:conv32*3*3->relu->maxpool2*2->conv64*3*6->relu->maxpool2*2->fc256->dropout0.5->fc10。
  2. 找到一個(gè)訓(xùn)練數(shù)據(jù),將其數(shù)據(jù)范圍限定在0到1之間,我們對(duì)每一個(gè)像素點(diǎn)隨機(jī)增減-0.1到0.1之間的一個(gè)數(shù),這樣得到64個(gè)隨機(jī)的圖像,然后經(jīng)過CNN模型預(yù)測(cè)得到這64個(gè)圖像的預(yù)測(cè)label,從中選擇一個(gè)和原始label相同的圖像。經(jīng)過若干輪迭代后,我們就可以看看這個(gè)隨機(jī)改變的數(shù)字變成了什么樣子。

我們選擇了一個(gè)數(shù)字0:

 

經(jīng)過50輪迭代,我們得到了這樣的圖像:

 

經(jīng)過100輪迭代,我們得到了這樣的圖像:

 

經(jīng)過150輪迭代,我們得到了這樣的圖像:

 

經(jīng)過200輪迭代,我們得到了這樣的圖像:

 

到此為止,可以看出這個(gè)數(shù)字還是隱約可見,但是實(shí)際上圖像已經(jīng)變得模糊不清,大量的雜亂信息混入其中,已經(jīng)和原始的數(shù)字完全不同。

這個(gè)套路被稱作“fool CNN”,用東北話說就是忽悠。繼續(xù)迭代下去,我們還能生成出更精彩的圖像。當(dāng)然這也只是忽悠CNN模型的一種辦法,我們還有其他的辦法來生成圖像。其他的辦法這里就不再介紹了。關(guān)于這種忽悠,大神們也給出了和機(jī)器學(xué)習(xí)有關(guān)的解釋:

CNN的模型說到底還是個(gè)判別式模型,如果我們把圖像設(shè)為X,label設(shè)為y,CNN的模型就相當(dāng)于求p(y|X)的值。判別式模型相當(dāng)于描述“什么樣的圖像是這個(gè)label的圖像”,而滿足了這些條件的圖像有時(shí)并不是具有真實(shí)label的那個(gè)圖像。而上面的忽悠套路就是利用了這個(gè)漏洞。

上面的例子中,我們用這種fool的方法讓一張模糊不清的圖像保持了原來的label,同時(shí)我們也可以讓一張不算模糊的圖像被CNN錯(cuò)認(rèn)成另外一個(gè)label。

比方說下面這張經(jīng)過40輪迭代的圖像被認(rèn)成了6:

 

這些套路的出現(xiàn)都讓我們對(duì)CNN有了一些警惕,如果想讓CNN對(duì)手寫數(shù)字完全hold住,我們還需要其他的方法輔助,不然的話這種意外總會(huì)發(fā)生。

那么有沒有什么方法能解決這樣的問題呢? 

責(zé)任編輯:龐桂玉 來源: 36大數(shù)據(jù)
相關(guān)推薦

2009-04-09 10:17:00

2018-12-14 08:45:42

筆記本輕薄本顯卡

2009-03-04 10:39:47

面試求職弱點(diǎn)

2021-07-14 06:40:02

矩陣路徑字符串

2018-06-13 07:53:50

物聯(lián)網(wǎng)IOT人工智能

2018-03-12 10:39:19

流量長(zhǎng)途漫游互聯(lián)網(wǎng)

2012-08-10 09:59:47

2011-02-17 09:58:16

WindowsUbuntu

2010-01-12 09:22:19

云計(jì)算

2017-10-27 16:19:23

語音識(shí)別CNN

2016-10-28 21:47:44

開發(fā)經(jīng)驗(yàn)Android

2016-09-18 15:38:10

CMDB配置

2018-08-03 08:43:38

2017-07-25 15:21:42

數(shù)據(jù)挖掘深度學(xué)習(xí)模型

2021-07-30 23:14:47

網(wǎng)絡(luò)安全奧運(yùn)運(yùn)營(yíng)商

2019-03-18 10:02:16

緩存更新數(shù)據(jù)

2010-12-20 12:33:55

2012-05-10 17:12:43

創(chuàng)新工場(chǎng)燈泡工場(chǎng)

2017-10-26 15:41:49

AICNN加速

2023-12-04 09:37:00

C++靜態(tài)變量
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)