機械社區(qū)
標題: 斯坦福家務(wù)機器人,看似全能,實際靠遙控 [打印本頁]
作者: Callejon 時間: 2024-1-8 10:23
標題: 斯坦福家務(wù)機器人,看似全能,實際靠遙控
近日,斯坦福華人團隊的Mobile ALOHA“全能家務(wù)機器人”在網(wǎng)上爆火,它展示了做飯、鋪床、澆花等多種家務(wù)技能,可謂是全復(fù)合“保姆人才”。
# `( }0 Y6 {8 S% r k
它能夠煮蝦,可以擦拭桌子上的紅酒,能洗盤子,還可以自動打開電梯。
; g5 \; ?3 g/ m' {/ ~/ J1 H# H2 M/ G
還可以打開窗簾為窗臺上的花澆水,將衣服放到洗衣機里、撒上洗衣液洗衣。這讓網(wǎng)友直呼機器人時代已來,它難能可貴在“眼里有活兒”。
, n' k% G F8 d% S6 g6 y
不過,Mobile ALOHA所展示的復(fù)雜技能,其實是背后由人遙控操作的。
1月6日清晨,發(fā)現(xiàn)網(wǎng)友為Mobile ALOHA所呈現(xiàn)的自主化、智能化能力傾倒后,Mobile ALOHA的兩位研發(fā)人員連忙“辟謠”,稱部分動作是機器人自主展示的,部分則由人遙控完成。
, d8 P2 R4 o: f. D8 y, N: V8 c
為了如實呈現(xiàn)機器人的能力,他們還專門放出了Mobile ALOHA在全自動狀態(tài)下的“蠢笨”動作合集,稱 “機器人尚未準備好接管世界”。
7 E* Q& _/ y. N- |5 a* a
當你以為機器人能絲滑優(yōu)雅地舉起一杯紅酒時,它只能顫顫巍巍地握住杯子,看著酒杯傾倒碎在地上,將紅酒灑滿桌;
; P. J4 t: J; C( K
紅酒灑滿桌
; \ k$ \! q/ [
表現(xiàn)頗佳時,機器人能熟悉地端起左手顛鍋、右手拿鏟,完成一道菜肴的制作;但多是幾次,原本揮灑自如的鍋鏟就不是對著鐵鍋底部一頓操作,就是在鍋中揮舞但碰不到菜。
: {7 g) R% N; v
失敗的炒菜案例
0 `* J9 ?. D M; `3 S
全自動狀態(tài)下,它無法有力地控制住一把平底鍋,將鍋端起后,整個平鍋便不可避免地掉落,為了拯救翻到的鐵鍋,守在旁邊的研究人員還被燙傷了;
- W! D# D1 U7 m$ k8 R4 I
倒菜失敗
2 z) R1 J* b% |" i2 L# { G8 K b
甚至一根紅色圓珠筆,Mobile ALOHA也無法拾起。
# d8 V& ~; p' y3 b2 [2 A% t. x+ S
拿記號筆
, E4 @* f7 K! @+ s, w
現(xiàn)實和理想還有差距,但Mobile ALOHA所呈現(xiàn)出的完成精細和復(fù)雜的任務(wù)的運動操作能力,仍值得關(guān)注,這讓未來機器人更具有想象空間。
作者: xmdesign 時間: 2024-1-8 10:49
模仿學(xué)習(xí)(相當是AI圖像識別里的人工拉框標定),$ ?7 m' L* U6 ^0 K e7 R+ ^2 w
舵機機械臂力不夠&精度不夠,雙視覺給出的位置走不到,手爪缺觸覺感知...
作者: gemiusunyi 時間: 2024-1-8 10:57
這個就是機器人的現(xiàn)狀4 k! t) y4 U% [8 I/ K) F+ u! Q2 p
作者: bravo090 時間: 2024-1-8 11:30
他也說成功率是95% 這是AI學(xué)習(xí)的過程吧
作者: xmdesign 時間: 2024-1-8 11:42
之所以火爆刷出圈,應(yīng)該是因為不用黃教主“大鏟子”的嘗試,使得眾人眼前一亮,加上開源
作者: 學(xué)渣渣 時間: 2024-1-8 12:13
, p. Q2 ` a# K( f# K) T6 i
華為在發(fā)力昇騰系列,能否干翻黃教主?% x2 K# A$ b$ @
作者: 喂我袋鹽 時間: 2024-1-8 19:58
( i4 E9 [7 J! w( ~' s" Znonono,這是丐版
0 s! z- N0 A7 O5 C- K
作者: 喂我袋鹽 時間: 2024-1-8 19:59
xmdesign 發(fā)表于 2024-1-8 10:49* B* ~2 L1 e1 C7 X+ t4 @5 l# E5 N) f g
模仿學(xué)習(xí)(相當是AI圖像識別里的人工拉框標定),
# s+ }0 [9 m, \3 X1 c舵機機械臂力不夠&精度不夠,雙視覺給出的位置走不到, ...
4 \2 d3 h# R" l# U1 F+ a& b! n. d這玩意最終還是要進化到人形,雙臂吧?
1 t5 j; ~0 [' x, @5 u* y6 l6 [
作者: xmdesign 時間: 2024-1-9 08:04
, M$ ]. _1 K. E M2 v+ H- [& B5 A基本是這樣,去掉雙足的人形。如果想優(yōu)化斯坦福的DEMO,你只要閉上眼睛先靠觸覺模態(tài)完成些類似動作,記錄能成功的動作方式,然后再思考如何與視覺模態(tài)融合~運動控制底層增加壓感中斷&條件。。。
7 w% l0 z& D# Q9 p, z+ D+ [* d" _: y
! [ Q6 m/ e: l8 | D3 @- A1 Q
作者: 紅海星 時間: 2024-2-1 15:38
斯坦福這視頻一出來就能看出來里面水分太大,演示視頻拍攝的視角從來不取機械臂后部,再一個都是10倍以上的速度播放,另外主要是目前這一方向的世界頂級大牛及其團隊從最新發(fā)表的論文來看遠沒有達到這種程度。這其實就是具身智能E-AI,但是現(xiàn)狀是不管強化學(xué)習(xí)還是模仿學(xué)習(xí),都學(xué)不到很強的操作能力以及較強的泛化能力,也無法脫開實驗訓(xùn)練環(huán)境推廣到一般環(huán)境或者新環(huán)境中。谷歌2023年初解散了它的機器人項目團隊是有原因的,相比斯坦福那幾個人的小團隊,谷歌更讓人信服,畢竟人家才是具身智能的鼻祖,大名鼎鼎的Transformer算法是人家發(fā)表的。
歡迎光臨 機械社區(qū) (http://www.xa-space.com/) |
Powered by Discuz! X3.5 |