偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

聊聊視覺慣性里程計的IMU預(yù)積分模型

人工智能 智能汽車
在VIO開源框架(如VINS-MONO)中,IMU預(yù)積分部分屬于前端部分,是在采集了IMU數(shù)據(jù)之后就立刻進(jìn)行的運(yùn)算。

為什么工程實踐中我們使用視覺與IMU融合的解決方案即視覺慣性里程計(VIO)來估計運(yùn)動而不是簡單地使用視覺里程計(VO)。視覺慣性里程計的傳感器主要包括相機(jī)和慣性測量單元(IMU)兩種傳感器各有優(yōu)缺點,VIO的優(yōu)勢就在于IMU與相機(jī)的互補(bǔ)性。

視覺傳感器在大多數(shù)紋理豐富的場景中效果很好,但是遇到玻璃或白墻這樣特征少的場景就很難有效工作了。盡管如此相機(jī)數(shù)據(jù)的優(yōu)點在于數(shù)據(jù)基本不會有漂移。如果將相機(jī)放在原地固定,那么估計的位姿也是固定不動的。

IMU傳感器本身也是有自身缺點的,比如IMU長時間使用就會有非常大的累積誤差。但是在短時間內(nèi),其相對位移數(shù)據(jù)又有很高的精度,所以當(dāng)視覺傳感器失效時,融合IMU數(shù)據(jù),能夠提高定位的精度。IMU雖然可以測得角速度和加速度,但這些量都存在明顯的漂移,使得積分兩次得到的數(shù)據(jù)就會存在很大誤差。如果將IMU固定不動,其數(shù)據(jù)也會因為漂移的影響使得積分得到的位姿飄走。但是對于短時間內(nèi)的快速運(yùn)動,IMU能夠提供相對準(zhǔn)確的估計,這又剛好彌補(bǔ)了相機(jī)的缺點。相機(jī)運(yùn)動過快時會出現(xiàn)模糊或者兩幀之間重疊區(qū)域太少無法匹配。

IMU和相機(jī)就這樣相輔相成,因此現(xiàn)在很多SLAM算法的研究都是融合相機(jī)和IMU數(shù)據(jù)進(jìn)行位姿估計。

IMU誤差部分

一提到VIO,相信很多人都會立刻想到一個名詞——預(yù)積分。這也是希望接觸VIO的研究者們最長看到的詞匯。那么究竟預(yù)積分是怎么回事,為什么預(yù)積分在VIO中這么重要,就是接下來討論的重點了。

圖片

圖片

從上面的公式可以看出,我們讀的數(shù)據(jù)都不是客觀事實,是在客觀事實的基礎(chǔ)上疊加上傳感器的誤差,也就是偏置和噪聲。

a 和 g 分別表示 acc 和 gyro,w 表示在世界坐標(biāo)系,b 表示IMU體坐標(biāo)系。在后面的公式中會有很多下標(biāo),很容易混淆。

位移,速度和姿態(tài)(position, velocity, quaternion, i.e. PVQ)對時間的導(dǎo)數(shù)可以寫成

前兩個公式?jīng)]問題,就是三個運(yùn)動量之間的積分微分。第三個關(guān)于四元數(shù)微分,在這里稍微推導(dǎo)一下,方便大家后續(xù)閱讀。

中間穿插了一段四元數(shù)推導(dǎo),現(xiàn)在繼續(xù)。

從第 i 時刻的PVQ 對 IMU的測量值進(jìn)行積分得到第 j 時刻的PVQ:

因為IMU的采樣頻率高,通常為100Hz - 1000Hz,數(shù)據(jù)量非常大,在做優(yōu)化的時候,不可能將如此多的數(shù)據(jù)都放到狀態(tài)變量中,因此通常的做法是每隔一段時間提取一個數(shù)據(jù),比如每隔1秒提取一個。也就是上式中假如 i 是第一秒提取的IMU數(shù)據(jù),j 是第二秒提取的IMU數(shù)據(jù)?;具^程就是:已知第 i 秒的PVQ;第 i 秒和第 j 秒中間所有數(shù)據(jù)(如100個)以及我們已知的運(yùn)動學(xué)知識積分,從第 i 秒一點一點積分得到第 j 秒的PVQ。但是這樣在做后端優(yōu)化的過程中,當(dāng)我們進(jìn)行迭代求解計算來更新和調(diào)整PVQ的值時,一旦(比如第 1 秒)的PVQ進(jìn)行了調(diào)整,每一個中間過程以及后面所有的軌跡都要重新再積分算一遍,如果是100Hz,兩秒之間有100個采集數(shù)據(jù),就要計算100次積分。有沒有什么方法是可以不用如此牽一發(fā)而動全身,擺脫冗繁的積分過程?預(yù)積分的目的就是嘗試將這100次積分過程變成只有1次積分,或者說用1個值來代替100個值,通過預(yù)積分模型的應(yīng)用可以大大節(jié)省了計算量。

一個簡單的公式就可以將積分模型轉(zhuǎn)為預(yù)積分模型。

圖片

圖片

改叫 IMU預(yù)積分。分別對應(yīng)了位置,速度和姿態(tài)。

預(yù)積分量僅和IMU測量值有關(guān),它將一段時間內(nèi)的IMU數(shù)據(jù)直接積分起來就得到了預(yù)積分量。

下圖為IMU和視覺傳感器的模型,可以在一定程度上幫助理解。

IMU相機(jī)模型

預(yù)積分的離散形式

圖片

IMU的預(yù)積分誤差

一段時間內(nèi)IMU構(gòu)建的預(yù)積分量作為測量值,對兩時刻之間的狀態(tài)量進(jìn)行約束。

誤差中的位移,速度和偏置都是直接相減得到的,也就是測量值減估計值。第二行是四元數(shù)的旋轉(zhuǎn)誤差。

通過將積分模型轉(zhuǎn)化為預(yù)積分模型有效地減小了計算量,但是我們同時丟失了一些東西。當(dāng)我們用1個結(jié)果代替(如100個)數(shù)據(jù)點的時候,我們就不知道這1個結(jié)果的不確定度了。在轉(zhuǎn)化之前,這100個數(shù)據(jù)點每一個數(shù)據(jù)點的不確定度我們是知道的(因為IMU數(shù)據(jù)作為測量值的噪聲方差我們能夠標(biāo)定),但是這100個數(shù)據(jù)積分形成的預(yù)積分量的方差是多少呢?這就需要我們在得到IMU預(yù)積分的結(jié)果之后,還要推導(dǎo)預(yù)積分量的協(xié)方差,需要知道IMU噪聲和預(yù)積分量之間的線性遞推關(guān)系。

假設(shè)已知了相鄰時刻誤差的線性傳遞方程:

圖片

即誤差的傳遞分為兩部分:當(dāng)前時刻的誤差傳遞給下一時刻,當(dāng)前時刻測量噪聲傳遞給下一時刻。

協(xié)方差矩陣可以通過遞推計算得到:

圖片

其中

以上結(jié)果的推導(dǎo)利用了李群李代數(shù)的知識,過程過于繁復(fù),因此沒有在這里展開推導(dǎo)過程,以上結(jié)果與主流VIO開源代碼(VINS-MONO)中寫出的公式形式相同,讀者可以直接對應(yīng)代碼中的部分來對照。如果有時間,我會再更新以上公式的推導(dǎo)過程。

以上就是預(yù)積分的簡要介紹,在VIO開源框架(如VINS-MONO)中,IMU預(yù)積分部分屬于前端部分,是在采集了IMU數(shù)據(jù)之后就立刻進(jìn)行的運(yùn)算。在完整的VIO系統(tǒng)中除前端外還有很多其他的部分,包括:初始化部分(即IMU數(shù)據(jù)與相機(jī)數(shù)據(jù)的對齊)以及最重要的后端優(yōu)化求解部分。而后端優(yōu)化求解還包括很多內(nèi)容,比如整體的目標(biāo)函數(shù)如何構(gòu)建,求解優(yōu)化的過程中運(yùn)用了滑動窗口的方法來保證狀態(tài)量的數(shù)量從而控制計算量等,隨著我個人學(xué)習(xí)進(jìn)度的推進(jìn)還會進(jìn)行總結(jié)和整理。

責(zé)任編輯:張燕妮 來源: 自動駕駛之心
相關(guān)推薦

2025-01-17 09:45:00

激光雷達(dá)視覺模型

2017-12-26 13:53:31

深度學(xué)習(xí)遷移學(xué)習(xí)

2017-08-24 12:56:36

里程計算里程APP

2022-03-04 19:07:03

模型視覺人工智能

2022-08-01 10:07:34

訓(xùn)練模型圖片

2022-10-09 08:15:14

算法智能運(yùn)維

2021-01-31 23:54:23

數(shù)倉模型

2017-09-29 14:29:59

深度學(xué)習(xí)視覺算法

2022-06-16 19:53:51

AIAI模型

2021-12-27 08:22:18

Kafka消費(fèi)模型

2021-02-01 09:35:53

關(guān)系型數(shù)據(jù)庫模型

2024-03-11 00:09:00

模型融合場景

2020-11-12 09:55:10

百度

2025-08-24 09:24:07

2025-07-02 09:17:13

2022-08-16 08:17:09

CDPCRM數(shù)據(jù)

2025-08-13 01:00:00

2025-06-19 10:09:55

2019-10-12 13:17:16

技術(shù)研發(fā)指標(biāo)

2023-06-12 07:50:45

點贊
收藏

51CTO技術(shù)棧公眾號