当前位置: 监察器 >> 监察器前景 >> 我们用婴儿拍的视频训练了个自监督模型,学
机器之心报道
编辑:张倩「人工智能的下一个重大突破可能依赖于我们对于自己大脑的探索」——JoshTenenbaum最近几年,深度学习在诸多领域得到了广泛应用,但很多成绩的取得依赖于海量的数据和巨大的模型,对算力的需求也是永无止境。相比之下,人类婴儿不需要标注数据就能很快学到简单的知识。这种差别不禁让众多研究者反思,机器能否像人类一样高效学习?因此,很多计算机科学家开始探索人类幼儿的学习方式,希望能从中得到启发,创造出更加「智能」的人工智能系统。「想象一下,我们可以制造出一台像婴儿一样学习的机器。如果我们能做到这一点,那么这将成为人工智能的基础。」MIT计算认知科学实验室负责人JoshTenenbaum曾这样描述他们的愿景。当然,这个愿景距离我们还有些遥远,但最近,已经有人从另一个类似的方向开始了探索。他们研究的主题是:机器可以从婴幼儿的视觉世界中学到什么?这项研究的新颖之处在于,他们用了一个非常特殊的数据集:SAYCam。这个数据集里的图像是3个婴儿「亲自」拍的。数据采集者将摄像头戴在这些婴儿的头上,让他们记录下自己视野范围内观察到的事物。这种采集活动每周2个小时,整个采集过程大约持续了2年半(最早从6个月大的时候开始拍)。也就是说,该数据集完整地记录了3个婴儿2年半的成长经历。这种纵深程度对于研究心理学、语言学、计算机科学的研究者来说都是一笔宝贵的财富。来自纽约大学心理学系和数据科学中心的研究者发现了这个数据集,并结合当前比较热门的自监督学习算法训练了一个大型模型。实验结果表明,模型利用通用的自监督学习目标从该数据集中学到了强大的高级别视觉表征。该研究首次表明了利用SOTA自监督学习方法从儿童成长视频中学习有用高级别视觉表征的可能性。该研究对SAYCam数据集的创新性应用得到了一些研究者的肯定和赞赏。甚至已经有人开始和作者讨论下一步的研究方向。接下来,我们来看这项研究的具体细节。研究概述论文链接:
转载请注明:http://www.aideyishus.com/lkcf/849.html