波士頓動力機器人終于有腦子了!人類故意使絆子也不怕
波士頓動力也搞端到端AI了!
這次升級,Atlas不僅可以聽懂自然語言指令,還可以自主規(guī)劃動作和處理意外。
只見小哥故意合上蓋子,機器人仍能識別并打開箱子。

故意挪動箱子位置,它也能精確識別到變化。

即使附近有遺漏的裝置,它也能發(fā)現(xiàn),并準確放入箱子內(nèi)。

據(jù)介紹,此次更新由波士頓動力與豐田研究院聯(lián)手推出,基于大型行為模型(LBM),帶來了Atlas的全新版本——Atlas MTS。
新成果一出,網(wǎng)友們紛紛叫好,光是官方在YouTube發(fā)布的視頻觀看人數(shù)就突破十萬,點贊超一萬。

另有一批網(wǎng)友則欣慰的表示,膝蓋可以彎曲了,那背部就不會受傷了。

哇哦,點贊數(shù)2.4K說明大家都很關(guān)心機器人身體健康嘛~
除此之外,關(guān)于全新能力具體實現(xiàn),官方發(fā)布了詳細報告。
給Atlas裝上大腦
報告指出,端到端的語言條件策略能讓機器人充分發(fā)揮自身優(yōu)勢,實現(xiàn)行走、精確放置雙腳、蹲下、轉(zhuǎn)移重心,同時避免自身碰撞。
這種策略構(gòu)建過程分為以下4個步驟:
- 收集具身行為數(shù)據(jù);
- 處理、標注和整理數(shù)據(jù);
- 訓練神經(jīng)網(wǎng)絡(luò);
- 利用測試任務(wù)評估該策略。

更值得關(guān)注的是,此次大型行為模型采用4.5億參數(shù)的擴散Transformer模型,并結(jié)合流匹配目標,能將包括30Hz圖像、人體感覺和自然語言指令等輸入信息轉(zhuǎn)化為控制Atlas活動的動作指令。
說簡單點,Transformer像“全局之眼”, 把控整體架構(gòu)和動作細節(jié)的關(guān)聯(lián)。擴散是細化步驟,將模糊指令轉(zhuǎn)化為精準動作。流匹配損失則是真實參照,讓動作既貼合現(xiàn)實,又能靈活適應(yīng)不同場景。

在此過程中,波士頓動力關(guān)鍵的是將Atlas的模型預測控制器與VR界面結(jié)合,從而覆蓋從手指級精細操作到全身伸展、移動等各類任務(wù)需求。
這使得遠程操作員能夠充分發(fā)揮機器人的性能,將自身動作和感知與機器人的狀態(tài)保持同步。

除此之外,此次升級最值得關(guān)注的是,Atlas能自主處理意外情況。
當出現(xiàn)問題時,比如零件掉在地上或箱蓋未關(guān)閉,Atlas都能智能地做出反應(yīng)。
這簡直就是給Atlas裝上大腦!

不僅如此,官方還稱只要是人能演示的動作,Atlas都可以學習它,包括但不限于系繩子、折疊椅子和翻輪胎等。

不得不說,這學習能力真的驚到我了。
告別液壓,電驅(qū)機器人更適合AI
說起波士頓動力機器人,那不得不提一下Atlas液壓版。

此版本在2024年4月已退役,且在24小時內(nèi)發(fā)布全電動版本。
畢竟液壓系統(tǒng)不僅成本高,響應(yīng)慢,還難以與AI系統(tǒng)集成。
相比之下,電機驅(qū)動更精確、能耗低,且天然適配AI學習框架。
自波士頓動力轉(zhuǎn)向電驅(qū)動以來,他們也是不斷推出新動作。
去年8月,Atlas在RSS(機器人頂會)上大秀俯臥撐(當時還是沒有手指的,也可以稱為拳臥撐)。
動作那是相當標準~

過了兩個月,它就可以進廠打工了,只需告訴Atlas前后搬運的位置坐標,它就能全自動分裝物件。

而在今年5月份,波士頓動力再次升級,讓機器人具備3D空間感知和實時物體追蹤能力,可以自主執(zhí)行更復雜的工業(yè)任務(wù)。

此次的大型行為模型(LBM),也意味著它正擁抱全新的技術(shù)方向。
看完液壓轉(zhuǎn)電驅(qū)的波士頓,再來了解一下國內(nèi)一直采用電驅(qū)的宇樹。
從四足機器狗Go系列,到人形機器人H1、G1、R1,宇樹始終延續(xù)著“小而美”的電驅(qū)哲學,用更快的迭代速度,逐漸在全球打響了名號。

現(xiàn)在,180“芭蕾舞者”都出來了。

未來,隨著電驅(qū)技術(shù)與AI算法的不斷融合,電驅(qū)機器人的時代才將真正到來。































