偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

機(jī)器人領(lǐng)域出了個「RoboGPT」:一個模型處理不同感官輸入,來自谷歌

人工智能 新聞
這個機(jī)器人只需要一個單一的預(yù)訓(xùn)練模型,就能從不同的感官輸入 (如視覺、文本等)中生成命令,來執(zhí)行多種任務(wù)。

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

懶得打掃房間,那就直接交給機(jī)器人來做吧。

圖片

想吃零食了,機(jī)器人也能幫你服務(wù),薯片和紙巾都給你貼心備好。

圖片

而且,這個機(jī)器人只需要一個單一的預(yù)訓(xùn)練模型,就能從不同的感官輸入 (如視覺、文本等)中生成命令,來執(zhí)行多種任務(wù)

要知道,在以往機(jī)器人執(zhí)行命令時,處理這些不同的任務(wù)時, IO 規(guī)范、神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)和目標(biāo)等都是不一樣的。

圖片

現(xiàn)在,這個問題谷歌解決了,他們研究出了適用于機(jī)器人領(lǐng)域的Transformer模型:RT-1,甚至被人戲稱為RoboGPT。

圖片

△圖源:推特@Jim Fan

更重要的是,RT-1代碼已開源

具體原理

先來整體看看RT-1,它執(zhí)行任務(wù)主要依靠的就是:7+3+1。

所謂7,是指它的手臂有7個自由度,分別是x,y,z,滾動,俯仰,偏航,手爪開口。

3是指基礎(chǔ)運(yùn)動的三個維度,即在地面運(yùn)動時的x,y,偏航。

1則指RT-1的整體控制,即切換這三種模式:控制手臂,基礎(chǔ)運(yùn)動,或終止任務(wù)。

圖片

△圖源:Everyday Robots

而RT-1執(zhí)行任務(wù)時,它的底層邏輯還是純粹的監(jiān)督式學(xué)習(xí),要做好監(jiān)督式學(xué)習(xí),就得具備兩個條件:

豐富的數(shù)據(jù)集 和強(qiáng)大的神經(jīng)結(jié)構(gòu)。

首先是數(shù)據(jù)集,RT-1是在一個大規(guī)模的、真實(shí)世界的機(jī)器人數(shù)據(jù)集上進(jìn)行訓(xùn)練的,可以用4個數(shù)字來概括:13萬、700+、13、17,分別表示:

  • 包括13萬個片段;
  • 涵蓋700多個任務(wù);
  • 使用了13個機(jī)器人;
  • 歷時17個月。

然后就是RT-1的結(jié)構(gòu)了,它執(zhí)行任務(wù)的過程如下圖所示。

圖片

具體來說,圖像和文本先通過ImageNet預(yù)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)(EfficientNet)進(jìn)行處理。

在這其中,為了確保文本和圖像同路能夠很好地被整合在一起,RT-1還使用了FiLM層,這是一種通過語言嵌入來調(diào)節(jié)視覺活動的經(jīng)典技術(shù)。

這樣一來,RT-1便能很好地提取與手頭任務(wù)相關(guān)的視覺特征。

圖片

然后這些視覺特征會被Token Learner模塊計算成一組緊湊的token傳遞給Transformer,這使得機(jī)器人的推理速度能夠提高2.4倍以上。

接下來Transformer會來處理這些token并產(chǎn)生離散化的操作token,而操作token便是一開始說的那個7+3+1了。

通過控制手臂,基礎(chǔ)運(yùn)動以及模式便能夠執(zhí)行任務(wù)了。

在執(zhí)行任務(wù)的整個過程中,RT-1還會以3Hz的頻率執(zhí)行閉環(huán)控制和命令操作,直到產(chǎn)生終止操作或用完預(yù)先設(shè)置的時間步驟數(shù)。

不過話說回來,既然這個機(jī)器人能夠執(zhí)行多任務(wù),那它執(zhí)行通用任務(wù)時的能力到底如何呢?

研究人員分別測試了RT-1對干擾物數(shù)量(第一行)、不同背景和環(huán)境(第二行)以及真實(shí)場景(第三行)的魯棒性。

圖片

并與其他基于模仿學(xué)習(xí)的基線進(jìn)行比較,結(jié)果如下圖所示(第一項為訓(xùn)練期間的表現(xiàn))

顯而易見,在每個任務(wù)類別中,RT-1都明顯優(yōu)于以前的模型。

圖片

研究團(tuán)隊

這個機(jī)器人來自谷歌,研究團(tuán)隊的成員也比較龐大,分別來自三個研究團(tuán)隊:

首先是Robotics at Google,它是Google Research下的一個細(xì)分領(lǐng)域團(tuán)隊,目前正在探索“如何教機(jī)器人可轉(zhuǎn)移的技能”。

并且他們也在不斷公開其訓(xùn)練的數(shù)據(jù),以幫助推進(jìn)這一領(lǐng)域的最先進(jìn)水平。

圖片

然后是Everyday Robots ,它是X-登月工廠的一個細(xì)分領(lǐng)域團(tuán)隊,和谷歌團(tuán)隊一起工作,目前他們正在制造一種新型機(jī)器人,一個可以自學(xué)的,可以幫助任何人做任何事情的通用機(jī)器人。

圖片

還有就是Google Research,它是Google公司內(nèi)部進(jìn)行各種最先進(jìn)技術(shù)研究的部門,他們也有自己的開源項目,在GitHub公開。

圖片

項目地址:?https://github.com/google-research/robotics_transformer?

?論文地址:???https://arxiv.org/abs/2212.06817?

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2021-05-24 15:29:24

人工智能機(jī)器人聊天

2012-06-21 14:20:16

CSS3

2021-11-30 10:56:43

ChatterBot機(jī)器人人工智能

2021-04-01 10:51:44

機(jī)器人人工智能編程

2020-09-15 13:56:08

公眾號機(jī)器人圖靈機(jī)器人

2021-08-19 15:44:20

機(jī)器人人工智能機(jī)器學(xué)習(xí)

2020-02-18 10:26:58

機(jī)器人人工智能系統(tǒng)

2025-09-08 08:45:00

機(jī)器人模型訓(xùn)練

2024-11-01 07:30:00

2019-03-27 09:27:06

機(jī)器人人工智能系統(tǒng)

2023-10-18 10:24:15

2023-02-26 11:53:20

2015-05-22 11:40:00

希捷

2022-07-28 22:00:47

核酸采樣機(jī)器人機(jī)器人

2020-12-02 13:00:17

Recast.AI聊天機(jī)器人人工智能

2022-09-30 13:55:46

Python機(jī)器人

2010-02-05 10:31:46

谷歌機(jī)器人

2022-12-16 15:46:09

機(jī)器人模型

2022-05-09 11:42:26

機(jī)器人語言模型

2023-05-19 14:34:03

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號