ICLR 2022:AI如何識別“沒見過的東西”
本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。
這回域外物體檢測方向出了一個新模型VOS,合作團(tuán)隊(duì)來自威斯康星大學(xué)麥迪遜分校,論文已收錄到ICLR 2022中。
這一模型在目標(biāo)檢測和圖像分類上均達(dá)到目前最佳性能,F(xiàn)PR95指標(biāo)比之前最好的效果還降低了7.87%之多。
要知道深度網(wǎng)絡(luò)對未知情況的處理一直是個難題。
例如在自動駕駛中,識別已知物體(例如汽車、停車標(biāo)志)的檢測模型經(jīng)?!爸嘎篂轳R”,對域外物體(OOD)會產(chǎn)生高置信度的預(yù)測。
就像下圖中的一頭駝鹿,在Faster-RCNN模型下被識別成了行人,還有89%的置信度。
因此域外物體的檢測無疑成為了AI安全方面一個很重要的話題。
我們來看看這個模型是怎么對域外物體做出判斷的。
VOS如何檢測域外物體
在理解VOS之前,不得不提一下域外物體檢測困難的原因。
其實(shí)也很好理解,畢竟神經(jīng)網(wǎng)絡(luò)只是學(xué)習(xí)訓(xùn)練和測試時(shí)的數(shù)據(jù),遇到?jīng)]見過的東西時(shí)自然不認(rèn)識。
為了解決這個問題,得想辦法讓網(wǎng)絡(luò)認(rèn)識“未知”的事物。這怎么辦?
VOS想到的辦法是,給模型模擬一個域外物體用來學(xué)習(xí)。
例如下圖中的檢測情況,其中三團(tuán)灰點(diǎn)是我們的目標(biāo)。在沒有模擬域外物體時(shí)(左),模型只能在大范圍內(nèi)圈住目標(biāo)。
而在用模擬域外物體訓(xùn)練后(右),模型可以緊湊準(zhǔn)確的鎖定目標(biāo),形成更合理的決策邊界。
而一旦目標(biāo)鎖定更精確,只要在這個范圍之外,其他物體就可以都判為域外物體。
基于這個想法,VOS的團(tuán)隊(duì)構(gòu)建了這樣的框架:
以一個Faster-RCNN網(wǎng)絡(luò)為基礎(chǔ),在分類頭中加入一部分模擬域外物體的數(shù)據(jù),和訓(xùn)練集中的數(shù)據(jù)放在一起,共同構(gòu)建標(biāo)準(zhǔn)化的不確定性損失函數(shù)。
而這些模擬域外物體的數(shù)據(jù)從哪里來呢?在結(jié)構(gòu)圖中可以看出,這些點(diǎn)都來自目標(biāo)區(qū)域(藍(lán)色圓點(diǎn)、黃色方點(diǎn)和綠色三角點(diǎn))周圍,也就是低似然區(qū)域。
最后根據(jù)置信度的計(jì)算,藍(lán)色代表目標(biāo)檢測數(shù)據(jù),綠色代表域外物體。
以此判斷出圖像中的車和駝鹿。
再和許多其他域外物體檢測方法做一下比較,就可以看出VOS的優(yōu)勢。
各項(xiàng)指標(biāo)中箭頭向下代表該項(xiàng)數(shù)據(jù)越小越好,反之代表該項(xiàng)越大越好。
其中FPR95這項(xiàng)最為突出,描述的是OOD樣本分類正確率在95%時(shí),OOD樣本被錯分到ID樣本中的概率。
這項(xiàng)成績相較于之前最好的成績降了7.87%。
與現(xiàn)有的其他方法相比,也展現(xiàn)出了VOS的優(yōu)勢。
它作為一個通用學(xué)習(xí)框架,可以適用于目標(biāo)檢測和圖像分類兩種任務(wù)。而之前的方法主要靠圖像分類來驅(qū)動。
目前該模型已經(jīng)在GitHub上開源。
作者簡介
該模型主要由杜學(xué)峰、蔡沐等人提出。
杜學(xué)峰本科畢業(yè)于西安交通大學(xué),目前在威斯康星大學(xué)麥迪遜分校攻讀CS博士。
主要研究方向是可信機(jī)器學(xué)習(xí),包括域外物體檢測、對抗魯棒性、噪聲標(biāo)簽學(xué)習(xí)等。
蔡沐,本科也畢業(yè)于西安交通大學(xué),目前為威斯康星大學(xué)麥迪遜分校CS博二學(xué)生。
研究興趣集中在深度學(xué)習(xí)、計(jì)算機(jī)視覺,尤其是三維場景理解(點(diǎn)云檢測)和自監(jiān)督學(xué)習(xí)。
該篇論文的通訊作者是Sharon Yixuan Li,目前在威斯康星大學(xué)麥迪遜分校任計(jì)算機(jī)科學(xué)助理教授,之前還曾在Facebook AI任研究員。