偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

自動駕駛「感知」的革新?從人腦和蛙眼得到的啟示

智能汽車 自動駕駛 汽車軟硬件
需要處理的圖像像素過多與芯片算力不足的矛盾,已經(jīng)成為了當(dāng)前制約自動駕駛發(fā)展的瓶頸之一。

 ???

本文轉(zhuǎn)自雷鋒網(wǎng),如需轉(zhuǎn)載請至雷鋒網(wǎng)官網(wǎng)申請授權(quán)。

需要處理的圖像像素過多與芯片算力不足的矛盾,已經(jīng)成為了當(dāng)前制約自動駕駛發(fā)展的瓶頸之一。

為了解決上述問題,事件相機(jī)與脈沖神經(jīng)網(wǎng)絡(luò)的結(jié)合或許會是一個可行的解決方案。

卷積神經(jīng)網(wǎng)絡(luò)是目前圖像目標(biāo)檢測算法的重要手段。以ResNet-152為例,一個152層的卷積神經(jīng)網(wǎng)絡(luò),處理一張224*224大小的圖像所需的計算量大約是226億次,如果這個網(wǎng)絡(luò)要處理一個1080P的30幀的攝像頭,那么它所需要的計算量將高達(dá)每秒33萬億次,十分龐大。

以當(dāng)前典型的百度的無人車為例,計算平臺約為800TOPS,其中1TOPS代表處理器可以每秒鐘進(jìn)行一萬億次操作。

假設(shè)一個攝像頭所需要的算力為33TOPS,更遑論無人車動輒配置十余個攝像頭,以及多個激光雷達(dá)和毫米波雷達(dá)。

為了準(zhǔn)確檢測行人并預(yù)測其路徑,芯片往往需要多幀處理,至少是10幀,也就是330毫秒。這意味著相關(guān)系統(tǒng)可能需要數(shù)百毫秒才能實現(xiàn)有效探測,而對于一輛以60公里每小時行進(jìn)中的車輛來說,330毫秒的時間就能行駛5.61米。

如果為了保證足夠的安全,將幀數(shù)增加到每秒30幀,圖像數(shù)據(jù)很可能讓自動駕駛芯片不堪重負(fù)。

針對算力不足的問題,提高算力是業(yè)內(nèi)玩家最容易想到的方法。然而,目前芯片的制程正在不斷壓縮,在極小尺寸下,量子遂穿效應(yīng)逐漸顯著,摩爾定律逐漸失效,芯片算力的提升也在面臨巨大挑戰(zhàn)。

同時,算力的提高也伴隨著功耗的提高,但在新能源的大背景下,分配給芯片的能量越多,續(xù)航能力就會受到越大的影響。

算力與能耗正在逐漸成為自動駕駛發(fā)展的一對矛盾。

那么我們能不能另辟蹊徑呢?仿生學(xué)也許能給我們帶來新的思路。

對于人類來講,在靜止的畫面中注意到運動物體并不難。對于青蛙來說,它甚至只能看到運動的物體,對靜止的背景畫面視而不見。

針對生物這一特性,研究者們設(shè)計出一種事件相機(jī)。

傳統(tǒng)相機(jī)以固定幀率重復(fù)掃描整個場景,無論場景中是否有目標(biāo)活動,均忠實的輸出由一幀幀圖片組成的視頻流。毫無疑問,這種連續(xù)的視頻流存在高度的信息冗余,大量無用的背景圖片也被送入卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行運算。

事件相機(jī)則不同,事件相機(jī)僅記錄亮度“變化”的像素點。

傳統(tǒng)幀相機(jī)與事件相機(jī)輸出的效果對比如下圖所示,即傳統(tǒng)的幀相機(jī)輸出為整個視場的全部信息(左圖),而事件相機(jī)只捕捉場景中運動的手臂,如(右圖)所示。

???

基于重點關(guān)注運動目標(biāo)這一特點,事件相機(jī)也許能在自動駕駛領(lǐng)域大展身手。

由于事件相機(jī)剔除了靜止的背景圖片,所以每幀產(chǎn)生的數(shù)據(jù)量大大減少,達(dá)到幾十kb的級別。

相對于傳統(tǒng)相機(jī),事件相機(jī)還有高幀率、低功耗、高動態(tài)范圍等優(yōu)點:


  • 1)高幀率。實際上,所謂的“幀率”概念,對事件相機(jī)是不存在的。事件相機(jī)每個感光單元都可以以異步的形式來記錄像素亮度的變化,無需等待傳統(tǒng)相機(jī)每秒30次的“曝光”時機(jī)。基于沒有曝光的特點,事件相機(jī)的輸出頻率可以高達(dá)每秒100萬次,遠(yuǎn)遠(yuǎn)超過每秒30次傳統(tǒng)相機(jī)的幀率。
  • 2)低時延。事件相機(jī)僅僅傳輸亮度變化,從而避免了大量冗余數(shù)據(jù)的傳輸,因此能耗僅用于處理變化的像素。大多數(shù)事件相機(jī)的功耗約在 10 mW 級,而有部分相機(jī)原型的功耗甚至小于10 μW,遠(yuǎn)遠(yuǎn)低于傳統(tǒng)基于幀的相機(jī)。
  • 3)高動態(tài)范圍。事件相機(jī)的動態(tài)范圍高達(dá)140 dB,遠(yuǎn)遠(yuǎn)優(yōu)于 60 dB 的幀相機(jī)。這使得事件相機(jī)既能在光照條件良好的白天工作,也能在光線較暗的夜晚采集視場中的動態(tài)信息。這是由于事件相機(jī)每個像素的光感受器以對數(shù)方式獨立工作,而非全局快門工作模式。因此,事件相機(jī)具有與生物視網(wǎng)膜相似的特性,其像素可以適應(yīng)非常暗和非常亮的感光刺激。

下面兩張圖展現(xiàn)了事件相機(jī)的關(guān)注運動物體和高動態(tài)范圍的特性。傳統(tǒng)相機(jī)在光線較暗的情況下,難以辨識圖片中右邊的行人。然而事件相機(jī)卻能夠十分清晰的捕捉到右邊的行人,并同時濾出圖像右下靜止的車輛信息。

???

傳統(tǒng)相機(jī)

???

事件相機(jī)

在自動駕駛領(lǐng)域,事件相機(jī)相對于傳統(tǒng)相機(jī)具有巨大的優(yōu)勢,不過需要注意的是,事件相機(jī)無法提取出距離信息,需要激光雷達(dá)配合判斷目標(biāo)距離。

或許會有人感到疑惑:事件相機(jī)這么好,為什么沒有大量應(yīng)用在自動駕駛領(lǐng)域呢?

實際上,相機(jī)獲取信息僅僅是第一步,后續(xù)事件相機(jī)信息的處理則是更為關(guān)鍵的一環(huán)。

如下圖所示,傳統(tǒng)相機(jī)的輸出是一幀幀的靜止圖片,而事件相機(jī)則是一個個事件(Event)流。

???

一般來說,目前的神經(jīng)網(wǎng)絡(luò)都專注于如何提取每幀靜止圖片中的行人、汽車等目標(biāo),如YOLO,resnet等算法。針對基于時間戳的事件流,目前尚無有效的算法進(jìn)行目標(biāo)識別。

而事件流處理算法的缺失,與當(dāng)前的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)是分不開的。

當(dāng)前主流的神經(jīng)網(wǎng)絡(luò)被稱為第二代人工神經(jīng)網(wǎng)絡(luò),以精確的浮點運算為基礎(chǔ),缺失了在自然界中最重要的一個因素:時間。對于神經(jīng)網(wǎng)絡(luò)而言,輸出的結(jié)果會和輸入一一對應(yīng),任何時候輸入相同的圖片,神經(jīng)網(wǎng)絡(luò)都會輸出一樣的結(jié)果。

然而真實的大腦,是以這種浮點運算為基礎(chǔ)的嗎?顯然不是,真實的大腦是以脈沖為基礎(chǔ)的,以脈沖傳遞和處理信息。

這種以脈沖傳遞為基礎(chǔ)的神經(jīng)網(wǎng)絡(luò)是脈沖神經(jīng)網(wǎng)絡(luò)(spiking neural network,SNN),被譽為第三代人工神經(jīng)網(wǎng)絡(luò)?;诿}沖神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計的芯片也被稱為類腦芯片。

脈沖發(fā)生的時刻攜帶著重要信息,脈沖神經(jīng)網(wǎng)絡(luò)天然具備對時序信息處理的能力,這與事件相機(jī)基于時間戳的事件流輸出十分吻合。

此外,脈沖神經(jīng)網(wǎng)絡(luò)還具有事件驅(qū)動、異步運算、極低功耗等特性。


  • 1)事件驅(qū)動。在我們的大腦中,同一時刻大約有90%以上的神經(jīng)元都是沉默的。也就是說,當(dāng)沒有事件輸入的時候神經(jīng)元是不活動的。這一特點也使得事件相機(jī)的事件流的輸出與SNN十分契合,同時功耗也極大降低。
  • 2)異步運算。脈沖神經(jīng)網(wǎng)絡(luò)不存在“主頻”的概念。傳統(tǒng)的計算機(jī)都需要一個時鐘,以確保所有的操作都在時間步上進(jìn)行,這個時鐘的頻率被稱為主頻。目前主流的計算機(jī)主頻都達(dá)到每秒1GHz以上。然而,以IBM的神經(jīng)態(tài)硬件TrueNorth為例,100Hz左右的脈沖發(fā)放率即可完成圖像識別、目標(biāo)檢測等任務(wù)。當(dāng)前通用的計算機(jī)基本是馮·諾依曼結(jié)構(gòu),這種結(jié)構(gòu)下,隨著CPU的運算速度遠(yuǎn)遠(yuǎn)超過內(nèi)存的存取速度,已然形成難以逾越的計算瓶頸。然而,脈沖神經(jīng)網(wǎng)絡(luò)所有的內(nèi)存和運算都體現(xiàn)在神經(jīng)元的異步脈沖之中,有很大希望突破目前計算機(jī)運算能力瓶頸。
  • 3)極低功耗。在2016年著名的人機(jī)圍棋大戰(zhàn)中,Google公司的AlphaGo系統(tǒng)每局圍棋博弈的平均耗電費用高達(dá)3000美元。而作為脈沖神經(jīng)網(wǎng)絡(luò)架構(gòu)的人腦,功率僅僅為20W左右。此前,有學(xué)者將目標(biāo)檢測中的經(jīng)典算法YOLO進(jìn)行脈沖化,在完成相同任務(wù)的情況下,功耗降低了280倍左右,同時速度提高了2.3到4倍。

總的來說,事件相機(jī)和脈沖神經(jīng)網(wǎng)絡(luò)的結(jié)合,正如人類用眼睛和大腦觀察四周:自動忽略周圍靜止的事物,對突然出現(xiàn)的運動物體予以重點關(guān)注和運算。

當(dāng)前學(xué)術(shù)界已經(jīng)掀起了對脈沖神經(jīng)網(wǎng)絡(luò)研究的熱潮,但由于神經(jīng)態(tài)硬件的發(fā)展正處于起步階段,并且人們對于大腦的工作機(jī)理認(rèn)識還不夠全面,目前尚無基于脈沖神經(jīng)網(wǎng)絡(luò)在商業(yè)上的應(yīng)用。

隨著人們對大腦認(rèn)識的深入,以及國外的TrueNorth、SpiNNaker、Loihi和國內(nèi)清華的天機(jī)芯(Tianjic)和浙大的達(dá)爾文等類腦芯片的研發(fā)。我們也期待,事件相機(jī)與脈沖神經(jīng)網(wǎng)絡(luò)的結(jié)合能夠給自動駕駛行業(yè)帶來新的突破。

責(zé)任編輯:張燕妮 來源: 雷鋒網(wǎng)
相關(guān)推薦

2023-11-29 11:28:21

智能視覺

2022-12-09 10:04:20

自動駕駛技術(shù)

2023-05-06 10:02:37

深度學(xué)習(xí)算法

2023-03-14 09:40:33

自動駕駛

2023-04-11 09:57:26

自動駕駛騎車

2023-07-27 09:45:39

自動駕駛技術(shù)

2018-09-04 19:30:29

人工智能自動駕駛機(jī)器學(xué)習(xí)

2019-09-19 14:10:12

人工智能物聯(lián)網(wǎng)自動駕駛

2022-07-12 09:42:10

自動駕駛技術(shù)

2024-01-05 08:30:26

自動駕駛算法

2014-04-02 09:21:52

2023-07-17 11:27:56

2023-08-10 09:49:57

自動駕駛視覺

2023-06-02 10:33:35

2022-07-13 10:20:14

自動駕駛3D算法

2021-05-18 15:37:39

自動駕駛麥肯錫汽車

2021-12-10 10:41:08

自動駕駛數(shù)據(jù)汽車

2021-12-08 11:27:24

自動駕駛數(shù)據(jù)汽車

2024-08-16 09:53:47

2023-11-22 09:53:02

自動駕駛算法
點贊
收藏

51CTO技術(shù)棧公眾號