办事指南

机器人眼睛和人类固定不同的东西来解码场景

点击量:   时间:2017-11-02 19:31:12

Getty By Aviva Rutkin机器人通常将其描述为黑盒子,他们的决策过程几乎令人难以理解但在机器智能的情况下,研究人员正在破解黑匣子打开并窥视内部他们发现人类和机器在看图片时并不注意同样的事情 - 根本不是位于布莱克斯堡的Facebook和弗吉尼亚理工大学的研究人员让人类和机器能够查看图片并回答简单的问题 - 这是基于神经网络的人工智能可以处理的任务但研究人员对答案并不感兴趣他们想要映射人类和人工智能的注意力,以便对我们和他们之间的差异有所了解 “我们可以在人和机器上测量这些注意力图,这种情况非常罕见,”Facebook AI Research的Lawrence Zitnick说比较两者可以提供“计算机是否正在寻找正确的位置”的见解首先,Zitnick和他的同事要求亚马逊机械土耳其人的工人回答有关一组照片的简单问题,例如“男人在做什么”或“床上躺着多少只猫”每张照片都模糊不清,工人必须点击四周才能锐化它这些点击的地图可作为他们关注的图片部分的指南然后研究人员询问了两个被训练来解释图像的神经网络的相同问题他们绘制了每个网络选择锐化和探索的图片的哪些部分研究小组发现,两个人的注意力图得分为0.63,其中1为总重叠,0为无 AI和人类注意力图的重叠分数为0.26(见下图)尽管如此,神经网络非常擅长决定图像显示的内容,因此他们的技能存在一个神秘的因素弗吉尼亚理工大学的Dhruv Batra说:“机器似乎并没有像人类一样关注同一地区,这表明我们不了解他们的决策依据”人与机器之间的这种差距可能是寻求调整神经网络的研究人员的一个有用的灵感来源 “我们可以让它们更像人类,并且会转化为更高的准确度吗”巴特拉问道结果引起了瑞士Manno的Dalle Molle人工智能研究所的JürgenSchmidhuber的不满,尽管他警告说研究人员不一定急于建立完全模仿人类的系统 “选择性注意力就是积极填补细心观察者的知识空白,”Schmidhuber说人类拥有比神经网络更广泛的经验和知识,因此更善于关注重要事项 “一个系统的有趣之处可能是对已经知道它的另一个系统感到厌烦”参考:arxiv.org/abs/1606.03556更正,2016年7月1日:首次发布时,这个故事包含了重叠评分系统描述中的错误现在已经修改了更多关于这些主题: