斯坦福家务机器人,看似全能,实际靠遥控
近日,斯坦福华人团队的Mobile ALOHA“全能家务机器人”在网上爆火,它展示了做饭、铺床、浇花等多种家务技能,可谓是全复合“保姆人才”。它能够煮虾,可以擦拭桌子上的红酒,能洗盘子,还可以自动打开电梯。
还可以打开窗帘为窗台上的花浇水,将衣服放到洗衣机里、撒上洗衣液洗衣。这让网友直呼机器人时代已来,它难能可贵在“眼里有活儿”。
不过,Mobile ALOHA所展示的复杂技能,其实是背后由人遥控操作的。1月6日清晨,发现网友为Mobile ALOHA所呈现的自主化、智能化能力倾倒后,Mobile ALOHA的两位研发人员连忙“辟谣”,称部分动作是机器人自主展示的,部分则由人遥控完成。
为了如实呈现机器人的能力,他们还专门放出了Mobile ALOHA在全自动状态下的“蠢笨”动作合集,称 “机器人尚未准备好接管世界”。
当你以为机器人能丝滑优雅地举起一杯红酒时,它只能颤颤巍巍地握住杯子,看着酒杯倾倒碎在地上,将红酒洒满桌;
https://img.36krcdn.com/hsossms/20240107/v2_9578230464924b79a9f088c3599cee39@5285556_img_gif?x-oss-process=image/quality,q_80红酒洒满桌
表现颇佳时,机器人能熟悉地端起左手颠锅、右手拿铲,完成一道菜肴的制作;但多是几次,原本挥洒自如的锅铲就不是对着铁锅底部一顿操作,就是在锅中挥舞但碰不到菜。
https://img.36krcdn.com/hsossms/20240107/v2_d98a33d4186a4528b12e64a4a6844a5e@5285556_img_gif?x-oss-process=image/quality,q_80失败的炒菜案例
全自动状态下,它无法有力地控制住一把平底锅,将锅端起后,整个平锅便不可避免地掉落,为了拯救翻到的铁锅,守在旁边的研究人员还被烫伤了;
https://img.36krcdn.com/hsossms/20240107/v2_023e90b0c82e4b0e8b6877da172ac1c6@5285556_img_gif?x-oss-process=image/quality,q_80倒菜失败
甚至一根红色圆珠笔,Mobile ALOHA也无法拾起。
https://img.36krcdn.com/hsossms/20240107/v2_85e58e7acd6b40fb9e42cc3174513133@5285556_img_gif?x-oss-process=image/quality,q_80拿记号笔
现实和理想还有差距,但Mobile ALOHA所呈现出的完成精细和复杂的任务的运动操作能力,仍值得关注,这让未来机器人更具有想象空间。 模仿学习(相当是AI图像识别里的人工拉框标定),
舵机机械臂力不够&精度不够,双视觉给出的位置走不到,手爪缺触觉感知... 这个就是机器人的现状
他也说成功率是95% 这是AI学习的过程吧 之所以火爆刷出圈,应该是因为不用黄教主“大铲子”的尝试,使得众人眼前一亮,加上开源 xmdesign 发表于 2024-1-8 11:42
之所以火爆刷出圈,应该是因为不用黄教主“大铲子”的尝试,使得众人眼前一亮,加上开源
华为在发力昇腾系列,能否干翻黄教主?
gemiusunyi 发表于 2024-1-8 10:57
这个就是机器人的现状
...
nonono,这是丐版
xmdesign 发表于 2024-1-8 10:49
模仿学习(相当是AI图像识别里的人工拉框标定),
舵机机械臂力不够&精度不够,双视觉给出的位置走不到, ...
这玩意最终还是要进化到人形,双臂吧?
喂我袋盐 发表于 2024-1-8 19:59
这玩意最终还是要进化到人形,双臂吧?
基本是这样,去掉双足的人形。如果想优化斯坦福的DEMO,你只要闭上眼睛先靠触觉模态完成些类似动作,记录能成功的动作方式,然后再思考如何与视觉模态融合~运动控制底层增加压感中断&条件。。。
斯坦福这视频一出来就能看出来里面水分太大,演示视频拍摄的视角从来不取机械臂后部,再一个都是10倍以上的速度播放,另外主要是目前这一方向的世界顶级大牛及其团队从最新发表的论文来看远没有达到这种程度。这其实就是具身智能E-AI,但是现状是不管强化学习还是模仿学习,都学不到很强的操作能力以及较强的泛化能力,也无法脱开实验训练环境推广到一般环境或者新环境中。谷歌2023年初解散了它的机器人项目团队是有原因的,相比斯坦福那几个人的小团队,谷歌更让人信服,毕竟人家才是具身智能的鼻祖,大名鼎鼎的Transformer算法是人家发表的。
页:
[1]