偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

懶人福音!谷歌讓機器訓練機器,用大語言模型定制專屬于你的家務機器人

人工智能 新聞
這款整理機器人名為TidyBot,由谷歌與美國多所高校聯(lián)合打造,通訊作者來自普林斯頓大學。

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權轉載,轉載請聯(lián)系出處。

能根據(jù)你的喜好定制的家務機器人,來了!

想把深色衣服和淺色衣服分開洗?沒問題,機器人分分鐘就能幫你分好類:

圖片

被垃圾分類的問題搞得焦頭爛額?沒關系,也交給機器人來做:

圖片

總之,分類識別、定向放置……一切都憑你的習慣。

更關鍵的是,利用大語言模型,不需要大量數(shù)據(jù),也無需場景化學習,幾句話就能輕松調教。

這款整理機器人名為TidyBot,由谷歌與美國多所高校聯(lián)合打造,通訊作者來自普林斯頓大學。

圖片

讓機器訓練機器

對于物品整理機器人的定制,最難的一環(huán)就是用戶偏好的分析。

傳統(tǒng)上,這類信息需要通過海量的數(shù)據(jù)分析才能得到。

而TidyBot是使用LLM分析用戶喜好信息的。

用戶給出的具體實例,比如依據(jù)顏色將不同服飾分別放入衣柜和抽屜,會被轉換成Python風格的LLM提示信息。

objects = ["yellow shirt", "dark purple shirt", "white socks", "black shirt"]
receptacles = ["drawer", "closet"]
pick and place("yellow shirt", "drawer")
pick and place("dark purple shirt", "closet")
pick and place("white socks", "drawer")
pick and place("black shirt", "closet")
# Summary:

最后的概述是由LLM反饋的,具體到這個例子當中,LLM生成了如下結論:

# Summary: Put light-colored clothes in the drawer and dark-colored clothes in the closet.

該結論在接下來的環(huán)節(jié)中會被用于判定未知物品應該被放到哪里,前一步的輸出結果在這里作為提示的開頭。

# Summary: Put light-colored clothes in the drawer and dark-colored clothes in the closet.
objects = ["black socks", "white shirt", "navy socks", "beige shirt"]
receptacles = ["drawer", "closet"]
pick and place("black socks",

然后,LLM會輸出幾個新顏色襯衫和襪子的放置位置。

pick and place("black socks", "closet")
pick and place("white shirt", "drawer")
pick and place("navy socks", "closet")
pick and place("beige shirt", "drawer")

除了放置的位置,LLM也能分析其他操作信息,比如是需要“放”還是“扔”(下方Summary中的內容由LLM生成)。

objects = ["yellow shirt", "dark purple shirt", "white socks", "black shirt"]
pick and place("yellow shirt")
pick and place("dark purple shirt")
pick and toss("white socks")
pick and place("black shirt")
# Summary: Pick and place shirts, pick and toss socks.

同樣的,使用LLM總結出的信息可以判斷應對未知物體執(zhí)行何種操作。

# Summary: Pick and place shirts, pick and toss socks.
objects = ["black socks", "white shirt", "navy socks", "beige shirt"]
#以下為LLM輸出結果:
pick and toss("black socks")
pick and place("white shirt")
pick and toss("navy socks")
pick and place("beige shirt")

其他動作信息原理也都相同。

有了LLM給出的信息,接下來就要應用到實際工作中了。

TidyBot的系統(tǒng)中預置了很多物品的分類標簽,LLM指令的執(zhí)行方式也已經(jīng)由程序設定。

TidyBot首先讓圖像識別模塊判斷出物品的基本信息,然后傳給LLM生成指令,并交付執(zhí)行。

圖片

△TidyBot工作流程示意圖

由于只有極少量的數(shù)據(jù)需要進行區(qū)分,TidyBot具有很強的魯棒性。

同時,它能對來自任意用戶的任何物品進行分類,又有很強的靈活性。

基準測試成績亮眼

除了TidyBot本身,測試基準數(shù)據(jù)集也是該團隊的另一重要貢獻。

該數(shù)據(jù)集包含了96組以文本形式描述的任務場景,具體包括已知和未知操作方式的物品和相應的容器。

在每個場景中,容器的數(shù)量為2-5個,已知操作方式的物品數(shù)量為4-10個,未知物品數(shù)量與已知相同。

這96個場景涵蓋了客廳、臥室、廚房和儲藏室四種房間類型,每個類型24組。

圖片

△測試數(shù)據(jù)集節(jié)選,完整版可從GitHub中獲取

實際環(huán)境中,由于對物品分類的方式多種多樣,團隊分別從不同分類角度對TidyBot的表現(xiàn)進行了測試,具體包括:

  • 物品大類,如“服裝”和“玩具”
  • 物品屬性,如“金屬材質”和“塑料材質”
  • 物品功能,如“夏裝”和“冬裝”
  • 物品子類,如“襯衫”和“其他服裝”
  • 復合類型,如“圖書和玩具”

整體上,TidyBot的準確率達到了91.2%,超過了WordNet、RoBERTa等其他方式。

圖片

具體分類角度上的結果也是如此。

圖片

上述數(shù)據(jù)只是在理論層面對TidyBot的分類能力進行測試。

在實際應用中,TidyBot的表現(xiàn)同樣不俗。

團隊一共搭建了8個真實場景。

圖片

△測試使用的真實場景

每個場景各包括10件物品、2-5個容器和4-10條已知信息。

圖片

△測試中使用的容器和未知物品

每個場景都進行了重復測試,最終各測試了3次,即一共10*8*3=240次操作。

在這240次操作中,TidyBot的正確率達到了85%。

最后,讓我們實際看一下TidyBot在測試中的表現(xiàn)吧。

位置及放置方式偏好:服裝→沙發(fā),放;木塊→抽屜,放;易拉罐→垃圾桶,扔;水果→黑色箱子,扔;零食→塑料箱,扔

論文地址:https://arxiv.org/abs/2305.05658
項目主頁:https://tidybot.cs.princeton.edu/GitHub頁面:
https://github.com/jimmyyhwu/tidybot/

責任編輯:張燕妮 來源: 量子位
相關推薦

2021-07-31 21:08:53

工業(yè)機器人機器人編程語言

2019-03-27 09:27:06

機器人人工智能系統(tǒng)

2010-02-05 10:31:46

谷歌機器人

2020-10-15 15:42:00

人工智能

2024-12-13 15:41:46

2022-09-23 09:53:41

機器人機器學習

2024-01-05 19:44:48

谷歌機器人憲法AI

2020-12-31 06:55:37

機器人自然語言人工智能

2024-01-05 13:24:29

谷歌家務機器人AI

2024-07-09 14:15:48

AIAgent機器人

2019-10-18 09:11:55

工業(yè)機器人智能制造智能化

2023-09-21 10:29:01

AI模型

2015-12-10 21:49:32

IM機器人

2022-08-17 14:35:49

谷歌機器人模型

2023-07-01 19:49:04

機器人

2022-04-18 14:29:57

人工智能強化學習機器人

2015-07-28 09:36:11

機器人

2021-08-19 15:44:20

機器人人工智能機器學習

2021-10-08 15:31:24

機器人人工智能編程

2021-07-22 10:17:55

加密機器人加密貨幣機器人
點贊
收藏

51CTO技術棧公眾號