李飞飞团队打造AI厨房:「我干不了大事,先去砍瓜切菜了」

【导读】

「人工智能的天花板,可能在厨房首先被拆掉(www.ntqLw.com)。」

AI公司IPO失败、重组、出售的新闻频频上镜,人工智能似乎到了一个天花板。

像GPT-3这样的人工智能系统已经足够优秀了,和它类似的大模型吃的是大量的文本数据,但是目前这些模型的智能级别显然还很低,驱动的机器人很呆板,因为这些模型的训练都是基于一些已有的静态事实,而捕捉不到环境的变化。

为了能实现更高级别的智能,很多研究团队开始建立大量的虚拟环境,将人、环境和二者之间的互动加入进去一起训练。

斯坦福视觉与学习实验室(SVL)Silvio / 李飞飞组的研究者把这一想法变成了现实,去年他们推出了一个全新的模拟环境 iGibson,可以为大型真实场景中的交互任务开发机器人解决方案。

iGibson是一个基于 Bullet 提供快速可视化渲染和物理模拟的仿真环境,拥有十五个完全交互式的高质量场景,数百个来自真实家庭和办公室的大型3D 场景重建,提供了超过12000个额外的交互场景。

iGibson 本身的一些特性决定了它能创建这么多的场景,包括域随机化、与运动规划器的集成以及易于使用的演示工具。

有了这些场景和功能,iGibson 可以让研究人员训练基于强化学习的机器人使用视觉信号来导航和操作任务,比如打开门,拾起和放置物体,或者翻箱倒柜。

最近,李飞飞的团队的iGibson又更新到2.0了,这次它创建了一个模拟厨房,想教机器人学会炒菜。

进化之后的iGibson2.0,可不是只会转圈圈了,因为加入了几种新的物理状态,iGibson中的虚拟机器人学会用刀叉了。

这次iGibson 2.0扩展后,机器人可以感知到的物理状态包括温度、湿度/清洁程度、切换和切片状态。

模拟水滴感知湿度

它的逻辑谓词功能将这些状态映射到二进制逻辑状态,例如 InsideOf,而这些状态就非常接近自然语言了,可以直接通过语音或文本来驱动,而弱人工智能对文本的理解已经可以解决很多问题。

iGibson2.0支持强大的生成系统,用于任务和场景的初始化。给定一组初始逻辑状态,系统生成不同初始姿态、对象模型和场景的有效实例,这使得研究人员可以从繁琐的手工规范中解脱出来。

研究团队使用生成系统和语义规则来定义 iGibson 场景中的日常对象,例如食物、餐具、办公用品和玩具。它们被放置在桌子和架子等家具的顶部,以及冰箱和橱柜等容器的内部。

iGibson 2.0为研究人员提供了一个新颖的虚拟现实(VR)界面,用于收集长期、复杂、双手移动操作任务的演示样本,目前已经收集了500个行为活动。

李飞飞创建的ImageNet可以说是2D人工智能发展起来的最大功臣,因为没有ImageNet这么大规模的数据,现在的深度学习系统根本没有饭可以吃。

大胆猜测一下,iGibson的出现也不只是为了做这几个呆板的动作,或者理解简单的语言,去驱动虚拟世界的机器人,成为3D版的ImageNet,训练出跨越维度的强人工智能才是它的最终目标所在。

参考链接:

http://svl.stanford.edu/igibson/

主营产品:混凝土布料机