如果你的朋友紧攥着拳头对你说她现在感觉很放松,你一定会觉得她在说谎,但机器人却会相信她说的话。我们的肢体语言会透露出很多讯息,但是就算现在计算机视觉和面部识别技术已经有了很大的进步,机器人还是很难注意到微小的肢体动作所透露出的信息,从而错过一些重要的线索。
卡内基梅隆大学的研究专家们最近开发了一个“肢体追踪系统”,这个系统可能有助于解决这个问题。这个系统叫做“OpenPose”它能实时追踪人的肢体动作,包括我们的手部动作和面部表情变化。它使用了计算机视觉和机器学习技术来处理视频帧,还能实现同时多人肢体动作的追踪。OpenPose的这一能力可以简化人机交互,并且可以为更多的互动式虚拟场景和增强现实,以及直观的用户界面铺平道路。
OpenPose系统的一个显著特点是它不仅能够追踪人的头部、躯干和四肢,还能追踪人的手指动作。为了实现手指动作的追踪,研究人员们使用了CMU的“全景展示工作室”,这个工作室是一个装置着500个摄像头的圆形屋顶,这些摄像头能够从各个角度捕获人的肢体动作,然后用这些捕获到的动作图像建立一个数据库。
接着,他们把这些图像运行于一个关键点检测器,识别并标记出一些特定的身体部位。这个系统还会将独立的身体部位与一个整体的人联系起来,这样它才能知道一个人的手通常是靠近其手肘的。也正是因此,系统才能够实现同时追踪多个人。
这些从圆形屋顶摄像头捕获到的图像都是平面的,但是研究人员们将检测到的关键点进行三角测量处理,并将其转化为3D以帮助他们的“人体追踪算法”理解每一动作姿势是如何从不同的角度呈现出来的。当处理完这些数据以后,系统就能在某种特殊的情境下,判断出一个人的手整体是怎样的,即使在图像中人的手部分被遮挡住了。
既然系统已经掌握了这个数据集,那么接下来它就只需要运行于一个摄像头和一台笔记本电脑。它不再需要那个装置着摄像头的圆形屋顶来判断肢体动作了,所以这项技术现在变得更加方便、灵活了。研究人员们已经向公众发布了他们的系统代码,鼓励更多人对这个系统进行试验。
他们表示这项技术适用于任何人机之间的互动,它在VR(虚拟现实)体验中扮演者重要的角色,无需额外的硬件就能更好地检测出用户的身体动作。
这个系统还能促进更多人类与家庭机器人的自然交流和互动。你可以告诉你的机器人“把那个东西捡起来”,机器人能够立刻明白你手指指的“那个东西”是什么。通过肢体动作的接收和转译,机器人还很可能会读懂你的情绪。所以当你在因为机器人代替了你的工作而掩面哭泣时,机器人可能还会给你递上一张纸巾呢。