参考消息网10月28日报道据美国趣味科学网站10月25日报道,科学家新近研究发现,神经网络现在能够比过去更像人类那样“思考”了。
周三发表在英国《自然》周刊上的研究报告预示着,长达数十年之久关于认知科学的辩论将发生变化。这个领域探索什么样的计算机最能代表人类思考能力。20世纪80年代以来,一部分认知科学家提出,由于未能捕捉到人类思考方式的重要特征,神经网络这种人工智能(AI)系统并非可行的思维模型。
但是,在经过训练后,神经网络现在能够获得这种类似人类的能力了。
纽约大学心理学与数据科学助理教授、研究论文作者之一布伦登·莱克告诉趣味科学网站:“我们这项研究表明,人类智力这个关键方面……可以通过训练一种模型来获得。”
神经网络在某种程度上模仿人类大脑结构,因为它们的信息处理节点互相连接,而且它们的数据处理流程以分层的方式进行。但是,一直以来,这种AI系统并未像人类大脑那样活动,因为它们缺乏将已知概念以新的方式相结合的能力,这种能力被称作“系统组合能力”。
莱克解释说,比如,如果一套标准神经网络学习“单脚跳”“两次”和“围成圈”等单词,那么必须向它展示很多例子,来说明这些词可以组成有意义的短语,例如“单脚跳两次”和“围成圈跳”。但是,如果再向这套系统输入一个新词,如“高速旋转”,那就需要再次向它展示一大堆例子,它才能学会如何以类似方式使用这个词。
在这项新的研究中,莱克与论文联合作者、西班牙巴塞罗那庞培法布拉大学的马尔科·巴罗尼使用一种虚构的语言,用“dax”和“wif.”这样的词,测试了AI模型和人类志愿者。这些词要么对应色点,要么具有以某种方式操纵这些色点序列顺序的功能。这样的话,词的顺序可以决定色点出现的顺序。
然后再给出一个没有意义的短语,AI系统和人类志愿者必须找出决定哪些色点与词对应的潜在“语法规则”。
人类志愿者在约80%的情况下都排出了正确的色点顺序。当他们排错的时候,他们会犯同一种错误,比如以为一个词代表单一色点,而不是具有打乱整个色点序列的功能。
在测试了七种AI模型之后,莱克与巴罗尼确定了一种方法,即组合性元学习(MLC),来让神经网络练习将不同的规则集应用于新学的词,同时也对它是否用对规则给出反馈。
经过组合性元学习训练的神经网络,在这些测试中的表现与人类志愿者相同或超过他们。当研究人员添加有关人类常犯的错误方面的数据时,AI模型也会像人一样犯同类错误。
研究人员还将组合性元学习与开放人工智能研究中心(OpenAI)提供的两套基于神经网络的模型进行对比,结果发现组合性元学习与人类志愿者在色点测试中的表现大大超过开放人工智能研究中心的模型。组合性元学习还顺利通过了额外的任务测试,其中涉及解读书面说明和句子意思。
未参与这项研究的约翰斯·霍普金斯大学认知科学教授兼微软研究院资深首席研究员保罗·斯莫伦斯基说:“他们在那项推算句子意思的研究方面取得了令人印象深刻的成功。”但是,这套模型的概括能力仍然有限。斯莫伦斯基告诉趣味科学网站:“它可以处理它接受过相关训练的句子类型,但是不能概括新的句子类型。”
但是,他说:“直到这篇论文出现之前,我们确实没有成功地训练出一套具有完全组合能力的网络。这正是我认为他们的论文推动了进展的地方(尽管它目前还存在局限性)。”
斯莫伦斯基还说,下一个重要课题是提升组合性元学习的能力,展示组合概括能力。
他说:“那是让我们具有理解和学习能力的核心特质,因此我们需要搞定它。这项研究让我们朝着那个方面前进,但是还没有搞定它。”(编译/郑国仪)
评论留言