GOOGLE X垃圾分類機器人來了 分得清干濕有害垃圾嗎?
歡迎關(guān)注“創(chuàng)事記”微信訂閱號:sinachuangshiji
文/郭一璞
來源:量子位(ID:QbitAI)
從上海,到北京,每個城市都在搞垃圾分類。
干垃圾、濕垃圾、有害垃圾,豬不能吃、豬能吃、豬吃了會死……你是不是還在為這些垃圾分別是什么而苦惱呢?
要是能自動給垃圾分類就好了。
Alphabet X,就是之前孵化了無人車的Google X,終于造出了垃圾分類機器人。
這些機器人可以把垃圾分類、把分錯類的垃圾放到正確的地方,還能在辦公室里游走撿垃圾。
比如,放錯地方的礦泉水瓶,機器人可以撿起來放到正確的地方去:
放錯地方的易拉罐,也要讓它和別的罐罐在一起:
他們在Alphabet公司的辦公室測試后,發(fā)現(xiàn)這臺機器人可以顯著降低垃圾造成的污染,將本能回收利用卻被送去垃圾填埋場的垃圾占比從20%降到不到5%。
怎么做到的
想讓機器人學(xué)會垃圾分類,需要用到感知、移動和操作,借助計算機視覺技術(shù)進(jìn)行感知以及幫助機器人前行的自動駕駛能力都是業(yè)界熟悉的,但如何學(xué)會在復(fù)雜環(huán)境中用“手”拉開柜子、打開抽屜、撿走垃圾則是必須要讓機器自行學(xué)會的操作。
因此,Alphabet X用到了三個方法來讓機器人學(xué)會靈活用“手”。
跟人類學(xué)習(xí)
第一種是跟人類學(xué)習(xí),模仿人類的動作和做法。
這里就用到了Play-LMP算法,它在沒有特定數(shù)據(jù)集訓(xùn)練的情況下,讓機器人跟人類的演示學(xué)習(xí),最終實現(xiàn)平均成功率85.5%。
學(xué)出來的成績,大概是這樣的,左邊是任務(wù)要求,右邊是執(zhí)行過程:
跟其他機器人學(xué)習(xí)
和其他機器人學(xué)習(xí)是通過無模型的強化學(xué)習(xí),讓許多個機器人共享經(jīng)驗。
具體的實現(xiàn)方式是這樣的:
讓機器人學(xué)習(xí)借助門把手開門這個技巧,一起學(xué)習(xí)的每個機器人都裝了一份神經(jīng)網(wǎng)絡(luò),并且他們每臺機器人都連到了一個中央服務(wù)器上。
每個機器人開始對著這個門和門把手琢磨,摸索著考慮怎么開。
這個過程中,每個機器人每一步的行動和結(jié)果都被傳輸?shù)奖澈蟮闹醒敕?wù)器上,中央服務(wù)器里的神經(jīng)網(wǎng)絡(luò)就開始借助這些傳輸來的經(jīng)驗,迭代改進(jìn)神經(jīng)網(wǎng)絡(luò)。
這樣整個過程就好像司令部派了幾個士兵出去偵查,再把每個士兵送回來的線索匯總,形成整體的作戰(zhàn)思路,再告訴士兵們應(yīng)該如何如何行動。
所以改進(jìn)之后,機器人們就都學(xué)會了開門這項技能。
在云端學(xué)習(xí)
機器人要撿垃圾,必須學(xué)會靈活的使用自己的“手”來抓東西,要不斷的練習(xí),有大量數(shù)據(jù)來訓(xùn)練模型才可以。
現(xiàn)實世界里,機器人一天只能練習(xí)5000次抓取,數(shù)據(jù)量是遠(yuǎn)遠(yuǎn)不夠的。
而借助隨機到規(guī)范適應(yīng)網(wǎng)絡(luò)(Randomized-to-Canonical Adaptation Networks,簡稱RCANs),在云中模擬訓(xùn)練的數(shù)據(jù)就可以用在模型的實際訓(xùn)練中,這樣機器人抓物體的成功率就提升到了70%。
之后,再結(jié)合5000次在現(xiàn)實世界抓取的數(shù)據(jù),對模型進(jìn)行微調(diào),成功率就到了91%。
這個過程,相當(dāng)于在真實世界抓了58萬次的結(jié)果,一下子省了99%的練習(xí)次數(shù)。
這樣,原來需要花3個月的時間來訓(xùn)練機器人學(xué)習(xí)抓取,現(xiàn)在只要不到一天就可以了。
另外,這篇論文也發(fā)了今年的CVPR。
結(jié)構(gòu)化和非結(jié)構(gòu)化環(huán)境里的機器人
現(xiàn)在的機器人領(lǐng)域內(nèi),雖然有不少成熟的機器人,但它們都是技能專精、價格昂貴的。
他們在工廠流水線上這種單一而結(jié)構(gòu)化環(huán)境里,用非常高的效率處理某一項任務(wù),但無法在每天情況都不一樣、復(fù)雜而非結(jié)構(gòu)化的生活環(huán)境中解決洗衣做飯這些麻煩的任務(wù)。
Alphabet X的最終目標(biāo)是造出可以在日常生活中使用的機器人,比如它可以在家里疊疊被子洗洗碗,在辦公室里端茶倒水取外賣……每天都會用到,所以這個項目也因此被叫做Everyday Robots。
不過,其難度可想而知。
美國國家公路交通安全管理局給出了這張示意圖。
橫軸左側(cè)是執(zhí)行專精的任務(wù),右邊是日常的多種復(fù)雜任務(wù);縱軸下半部分是在結(jié)構(gòu)化的環(huán)境中,上半部分是在非結(jié)構(gòu)化的環(huán)境中。
顯然,右上角那種在各種復(fù)雜環(huán)境都能隨機應(yīng)變、十八般武藝樣樣都行的機器人,人類創(chuàng)造它的難度要遠(yuǎn)遠(yuǎn)高于左下角只會在流水線上固定位置完成固定任務(wù)的工業(yè)機器人。
而在右上方象限內(nèi),就有正在發(fā)展中的自動駕駛汽車,Everyday Robots,要比自動駕駛的難度更上一個量級。
傳送門
最后,關(guān)于這個垃圾分類機器人的三種學(xué)習(xí)方式,相關(guān)的論文、技術(shù)博客鏈接如下。
跟人類學(xué)習(xí)
Learning Latent Plans from Play
作者:Corey Lynch, Mohi Khansari, Ted Xiao, Vikash Kumar, Jonathan Tompson, Sergey Levine, Pierre Sermanet
https://learning-from-play.github.io/
跟其他機器人學(xué)習(xí)
https://ai.googleblog.com/2016/10/how-robots-can-acquire-new-skills-fro…
在云端學(xué)習(xí)
Sim-to-Real via Sim-to-Sim: Data-efficient Robotic Grasping via Randomized-to-Canonical Adaptation Networks
作者:Stephen James, Paul Wohlhart, Mrinal Kalakrishnan, Dmitry Kalashnikov, Alex Irpan, Julian Ibarz, Sergey Levine, Raia Hadsell, Konstantinos Bousmalis
https://arxiv.org/abs/1812.07252
?
? ? ? ? 原文鏈接:http://tech.sina.com.cn/csj/2019-11-22/doc-iihnzahi2589505.shtml
????????本文系轉(zhuǎn)載,文章版權(quán)歸原作者所有,內(nèi)容為作者個人觀點,轉(zhuǎn)載目的在于傳遞更多信息,如涉及作品內(nèi)容、版權(quán)和其它問題,請與我們聯(lián)系,我們將在第一時間刪除內(nèi)容。