机器人学习看东西,像人类一样理解三维物体

杜克大学(Duke University)和布朗大学(Brown University)的研究人员已经开发出一种技术,旨在让机器人更像人类一样理解3d物体,从而更好地解释和“看到”数据。

通过罗宾·a·史密斯,杜克大学 2017年7月18日

自主机器人可以检查核电站,清理海洋中的石油泄漏,陪同战斗机进入战斗,并探索火星表面。

然而,尽管机器人有如此多的天赋,它们仍然不会泡一杯茶。

这是因为像开炉子、取水壶、找牛奶和糖这样的任务需要感知能力,而对大多数机器来说,这仍然是一个幻想。

其中之一就是感知三维物体的能力。虽然对机器人来说,用摄像头和其他传感器“看到”物体是相对简单的,但通过一瞥来解释它们看到的东西就比较困难了。

杜克大学研究生本·伯奇菲尔(Ben Burchfiel)说,世界上最复杂的机器人还不能自动完成大多数儿童所做的事情,但他和他的同事可能更接近解决方案。

伯奇菲尔和他的论文导师乔治·科尼达里斯(George Konidaris)开发了一项技术,使机器能够以更接近人类的方式理解3d物体。科尼达里斯现在是布朗大学(Brown University)的计算机科学助理教授。

例如,一个机器人要清理桌子上的盘子,就必须能够适应各种各样不同大小和形状的碗、拼盘和盘子,把它们杂乱地放在杂乱的表面上。

人类瞥一眼一个新物体,就能直观地知道它是什么,是正面朝上、上下颠倒还是侧面朝上,是完全可见还是部分被其他物体遮蔽。

即使一个物体被部分隐藏,我们也会在心里填充我们看不到的部分。

他们的机器人感知算法可以同时猜测一个新物体是什么,以及它的方向,而不需要先从多个角度检查它。它还可以“想象”视野之外的任何部分。

例如,拥有这项技术的机器人不需要看到茶壶的每一面,就能知道它可能有把手、盖子和壶嘴,以及它是直立地坐在炉子上还是倾斜着。

研究人员表示,他们的方法错误更少,速度比目前最好的方法快三倍。

伯奇菲尔说,这是朝着机器人在家庭和其他现实环境中与人类一起工作迈出的重要一步,这些环境比实验室或工厂的高度控制环境更不有序和可预测。

在他们的框架下,机器人被给予有限数量的训练示例,并使用它们来推广到新的对象。

Burchfiel说:“假设机器人预先拥有它可能遇到的每一个可能物体的详细3d模型是不切实际的。”

研究人员在一个数据集上训练了他们的算法,该数据集包含了大约4000个常见家用物品的完整3d扫描数据集:浴缸、床、椅子、桌子、梳妆台、显示器、床头柜、沙发、桌子和厕所。

每次3d扫描都被转换成成千上万个小立方体,或体素,像乐高积木一样堆叠在一起,使它们更容易处理。

该算法使用一种叫做概率主成分分析的技术,通过梳理每个对象的例子,找出它们如何变化,如何保持不变,从而学习对象的类别。

当机器人发现新事物时,它不需要在整个大脑目录中筛选匹配。它从先前的例子中学习到床往往具有什么特征。

基于先前的知识,它有能力像人一样进行概括——理解两个物体可能不同,但具有共同的属性,使它们都成为特定类型的家具。

为了测试这种方法,研究人员给算法输入了908个相同的10种家用物品的3d样本,这些样本都是从顶部看的。

从这个单一的有利位置,算法正确地猜出了大多数物体是什么,以及它们的整体3d形状应该是什么,包括隐藏的部分,大约有75%的时间,而最先进的替代方案只有50%多一点。

它还能够识别以各种方式旋转的物体,这是最好的竞争方法无法做到的。

Burchfiel说,虽然该系统的速度相当快——整个过程大约需要一秒钟——但与人类的视觉仍有很大差距。

首先,他们的算法和以前的方法都很容易被从某些角度来看形状相似的物体所欺骗。他们可能从上面看到一张桌子,误以为是梳妆台。

伯奇菲尔说:“总的来说,我们犯错的几率略低于25%,而最好的替代方案几乎有一半的几率会出错,所以这是一个很大的进步。”“但它还没有准备好搬进你的房子。你不希望它把枕头放进洗碗机里。”

现在,该团队正致力于扩大他们的方法,使机器人能够同时区分数千种类型的物体。

“研究人员已经教机器人识别3d物体有一段时间了,”伯奇菲尔德说。他解释说,其创新之处在于,它既能识别某些东西,又能填补视野中的盲点,重建看不到的部分。

Burchfiel说:“这在许多机器人应用中具有无价的潜力。”

杜克大学

www.duke.edu

布朗大学

www.brown.edu

-由克里斯·瓦夫拉编辑,制作编辑,控制工程, CFE传媒,
cvavra@cfemedia.com.查看更多控制工程机器人的故事