加入视觉:将计算机改造为机器人

技术的未来是要增强人类的各种使用体验。而“你”,就是这种使用体验的核心。如果你的工作不再枯燥,如果你的生活充满乐趣、更加舒适,如果你和别人有着更多更有意义的交流,你的体验就在提升。成功的技术,永远是以提升人类生活质量为目的的,不论这种技术是使你的空闲生活更有趣(就像大屏幕的电视提升了娱乐体验),还是使你的工作更高效(就像计算器方便了工程师)。

让我们来看一下这类提升人类生活体验的技术是如何发展的:

IBM发展了PC机,让中小规模的企业能够买得起计算机,使用计算机提高他们的工作效率,进而增进产量。微软和苹果开发了易于操作的操作系统,使得那些不是计算机专家的人,也能够使用计算机进行娱乐和工作。PC机普及了没几年,因特网就快速发展了起来。Google的出现使我们能够从互联网高效地获取信息。社交网络的出现甚至重新定义了人类的交往模式。还有智能手机,使我们能够随时随地享受技术带给我们的便利

毫无疑问,iPhone的处理速度会变得越来越快,Google的搜索会变得越来越完善,但是,我们和这些设备与应用的交互模式就不该进行革新吗,为什么这种交互模式迟迟得不到发展?

没有键盘的计算机:

绝大多数出色的技术和应用,都被设计为这种交互模式——当我们使用它们的时候,它们能够和我们友好地交互,当我们不再使用它们的时候,它们就基本不再主动产生有价值的信息。其实我们不需要穿戴各种复杂的设备(比如Google Glass),也不需要去学习iOS给我们提供的新鲜应用,我们需要的,是让技术能够自主地产生有用的信息,这个过程完全不需要我们通过点击按钮或者输入文字来控制。要让计算机自主地产生有意义的内容,也就意味着使计算机产生智能。这也正是机器人研究领域的课题。

什么是机器人?

如果我们想让机器人帮我们做些日常工作(比如打扫卫生,做饭,开车,和我们玩耍,教我们技能),我们需要机器人同时具有两种能力——直接感知周围环境的能力,和智能地对环境作出反应的能力。这个“感知-反应”的循环,正是我们将家用计算机变为机器人的过程中所要考虑的问题。当然,如果这种机器人的长相能够接近真正的“人”,看起来当然更好。如下图:

但在我看来,任何能够自我感知并作出反应的设备,都叫做机器人。所以,发展人形机器人并用于家政服务并不是机器人领域所考虑的全部议题。人们通常先入为主地认为,机器人一定要和人相似,有手有脚。而我们只有走出这种误区,拓展我们对于机器人的认识,才能真正拓展人工智能和机器视觉的研究思路。

现今的家用台式机和笔记本电脑,需要我们通过点击鼠标和键盘进行交互。我不认为这种模式是完善的,因为打字和点击鼠标并不是我们必须进行的交互。而能够和人直接进行语音交互的Siri,就比较我对于机器人的理解了。所以某种程度而言,我们可以把装有Siri的iPhone叫做机器人。但是,无论我们把Siri做得多么智能,我们都没法用Siri来擦地板。为什么呢?因为无论地板有多么脏,地板自己都不会呼叫,“我脏了,快来擦!”。这也正是Siri和大多数智能应用的短板。我们还需要使这些设备能“看”。也就是说,我们要让智能设备有效感知周围环境(眼前的这个物体是沙发还是椅子?),作出有效判断和相应动作(它是脏还是干净?该不该擦?),并判断环境中各类物体的边界(如果获取的图像里面检测到了沙发,图像中哪些像素属于沙发,哪些像素不属于沙发?)

加入视觉:

我们使用鼠标和键盘的时间已经太久太久了。不论你是否同意,敲击键盘实际上算是一种“计算机语言”了,因为它是更偏向于机器的表达方式。而且这种方式需要我们进行精准的操作,才能准确传达我们的指令和要求。我们需要教会计算机如何使用我们的语言进行表达和交互,并且让它们直接获取和感知环境信息。现今的计算机视觉的研究,已经越来越贴近现实生活了。这个世界需要更多有远见的人来研究计算机视觉,成为计算机视觉的专家,并且考虑如何将计算机视觉应用到更广阔的领域。我们也需要编程人员能够更多地在他们的应用中加入计算机视觉的元素。我们同样需要更多丰富且易用的计算机视觉工具,使那些刚刚投身于计算机视觉的人能够很快融入进来。通过大家的齐心协力,我们将会有希望看到真正的机器人进入家家户户的日常生活中来。

展望:

虽说VLfeat和OpenCV已经是很好的工具了,封装了很多底层的数据处理。但是,计算机视觉的研究人员仍然免不了自己去搜集训练数据,标记数据,谨慎地选择分类器,训练并聚类。如果我们能够有更高效的工具,更通用的API,研究人员将会从这些繁重枯燥的工作中解脱出来。如果我们能让那些没有相关数学基础,甚至没有丰富编程经验的人也能够直观地应用计算机视觉,那将多好。

收藏 评论

关于作者:Henry_USC

(新浪微博:@大酱封肚) 个人主页 · 我的文章 · 3

相关文章

可能感兴趣的话题



直接登录
跳到底部
返回顶部