人類每天都在進行不同層次的規(guī)劃活動,比如說每天早上起床以后,你習(xí)慣性走到廚房喝一杯咖啡:你會先走下走廊,左轉(zhuǎn)進入過道,然后進入右邊的房間。
對于這些習(xí)慣成自然的流程,你無需思考,不會刻意去想你要使用哪一個肢體動作。但對于機器人而言,這并非易事。
Facebook剛剛發(fā)布了主導(dǎo)研究的新系統(tǒng),讓機器人也可以通過觀看視頻,拆解動作,并學(xué)習(xí)如何組合這些動作形成自己的規(guī)劃。
層級抽象結(jié)構(gòu)(hierarchal abstractions)
已經(jīng)有越來越多的研究表明,層級抽象結(jié)構(gòu)(即視覺運動子程序)可以提高強化學(xué)習(xí)中的采樣效率,這是一種利用獎勵驅(qū)動智能體達到目標的AI訓(xùn)練技術(shù)。
在過去,這些層次結(jié)構(gòu)必須通過端到端的訓(xùn)練來手動編碼或獲取,而這需要大量的時間、注意力和長久的耐心。
Facebook這次的新研究提出,刻意讓機器人通過觀看視頻學(xué)習(xí)導(dǎo)航,描述一個通過用逆向機器學(xué)習(xí)模型攝取視頻偽標簽(在本文中,偽標簽指智能體想象的行為),從而學(xué)習(xí)層次結(jié)構(gòu)的系統(tǒng)。
論文作者分別來自Facebook AI研究室,加州大學(xué)伯克利分校和伊利諾伊大學(xué)厄巴納—香檳分校。
這讓人想起去年Facebook開源的一組模型——Talk the Walk。它只需要360°的全景圖像、自然語言以及一張有當(dāng)?shù)氐貥耍ū热玢y行和餐館)的地圖就可以通過問路,實現(xiàn)在整個紐約市的街道導(dǎo)航。
具體實現(xiàn)方式
機器人通過觀看這些視頻,研究這些簡單的視覺運動子程序是如何組合以達到高級的抽象層次,這些視覺運動子程序能夠解決一些已知問題,即經(jīng)典的規(guī)劃中的高計算成本和強化學(xué)習(xí)中的樣本復(fù)雜性的問題。
研究者提出的系統(tǒng)分為兩個階段,在第一階段,研究人員通過運行在隨機探索數(shù)據(jù)上自我監(jiān)督的智能體模型生成偽標簽。模型從分布在四個環(huán)境中的1500個不同位置學(xué)習(xí),在不同的位置隨機執(zhí)行30個不同步驟的動作,從而產(chǎn)生45,000個交互樣本。
在系統(tǒng)的第二階段,大約217,000個偽標記視頻被剪輯成220萬個單獨的小視頻,再將其輸入預(yù)測參考視頻中相應(yīng)動作的模型,同時再通過一個單獨的網(wǎng)絡(luò)檢查參考視頻中的動作序列,并編碼其行為作為向量。另一個模型通過推斷第一幀的軌跡的編碼,來預(yù)測哪一個子程序可以調(diào)用給已有的視頻幀。
交互樣本從1000萬減少到4.5萬
在一個部署在辦公環(huán)境的真實世界中的機器人實驗中,研究人員表明,相比單純交互的方法,至少應(yīng)用在之前從未見過的環(huán)境上,通過觀看視頻來學(xué)習(xí)技能(這里指采用最高效的方式前往目標位置)的方式能達到更好的效果。
最令人印象深刻的是,訓(xùn)練有素的模型學(xué)會了自主地前進導(dǎo)航并避開障礙物,比通過單純交互方式要快4倍,這使得機器人能夠做到完全自主地長距離行進。
“特別引人注目的是,這些模型從總計45,000次的環(huán)境交互中學(xué)習(xí),”研究人員寫道,“從第一視角的視頻中成功學(xué)習(xí),使得智能體能夠執(zhí)行連貫的軌跡,即使它只執(zhí)行過隨機動作。此外,它優(yōu)于最先進的技能學(xué)習(xí)技術(shù),該技術(shù)需要更大量的訓(xùn)練樣本,大致1000萬個。”
-
機器人
+關(guān)注
關(guān)注
211文章
28646瀏覽量
208432 -
Facebook
+關(guān)注
關(guān)注
3文章
1429瀏覽量
55002
原文標題:Facebook讓機器人“觀看”上萬次視頻后,TA學(xué)會了自主繞道走路
文章出處:【微信號:BigDataDigest,微信公眾號:大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
構(gòu)建人形機器人學(xué)習(xí)的合成運動生成管線
![構(gòu)建人形<b class='flag-5'>機器人學(xué)</b>習(xí)的合成運動生成管線](https://file1.elecfans.com/web3/M00/06/2B/wKgZPGeIdgOAHo0UAAARx11NzcQ599.png)
【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人的基礎(chǔ)模塊
【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人大模型
【「具身智能機器人系統(tǒng)」閱讀體驗】1.初步理解具身智能
【「具身智能機器人系統(tǒng)」閱讀體驗】+初品的體驗
《具身智能機器人系統(tǒng)》第1-6章閱讀心得之具身智能機器人系統(tǒng)背景知識與基礎(chǔ)模塊
麻省理工學(xué)院推出新型機器人訓(xùn)練模型
機器人的三大矩陣是什么及關(guān)系式
“卷不動了”?OTA來救場!智能機器人“永葆青春”的秘訣
![“卷不動了”?OTA來救場!智能<b class='flag-5'>機器人</b>“永葆青春”的秘訣](https://file1.elecfans.com//web2/M00/00/CA/wKgZomax2GmAL1OUAAH1U9jWD90366.png)
ROS讓機器人開發(fā)更便捷,基于RK3568J+Debian系統(tǒng)發(fā)布!
NVIDIA Isaac 機器人平臺利用最新的生成式 AI 和先進的仿真技術(shù),加速 AI 機器人技術(shù)的發(fā)展
![NVIDIA Isaac <b class='flag-5'>機器人</b>平臺利用最新的生成式 AI 和先進的仿真技術(shù),加速 AI <b class='flag-5'>機器人</b>技術(shù)的發(fā)展](https://file1.elecfans.com//web2/M00/EC/89/wKgaomZe5cOAJ4oaAABqKAD4BXg456.png)
奧比中光攜手新加坡LionsBot,讓智能清潔機器人落地超過30個國家
NVIDIA Isaac機器人平臺升級,加速AI機器人技術(shù)革新
機器人學(xué)習(xí)中主流智能抓取方案
![<b class='flag-5'>機器人學(xué)</b>習(xí)中主流智能抓取方案](https://file1.elecfans.com/web2/M00/C4/16/wKgZomXxC8mAJlTaAAA5NgxRuWM161.png)
自主移動機器人(AMR)功能和特點
![<b class='flag-5'>自主</b>移動<b class='flag-5'>機器人</b>(AMR)功能和特點](https://file1.elecfans.com/web2/M00/C2/C1/wKgaomXe2sWAGkMsAAMmh7f3Jj8592.png)
評論