大家好,我是考100分的小小码 ,祝大家学习进步,加薪顺利呀。今天说一说Nature:神经网络“举一反三”能力甚至超人类,希望您对编程的造诣更进一步.
神经网络具有类似人的“举一反三”能力,甚至超过人类水平???
最近刊于Nature的一篇论文表示找到了证据。
“举一反三”、系统概括的能力更专业点叫做系统性泛化能力。像小孩子一样,一旦学会了如何“跳”,他们就可以理解如何“向后跳”、“绕锥体跳过两次”。
要知道,早在1988年,认知科学家Fodor、Pylyshyn就提出了系统性挑战,认为人工神经网络缺乏这种能力。
Nature的这篇文章中表示,研究人员用一种叫做MLC(meta-learning for compositionality)的方法,通过在动态变化的组合任务流中训练,神经网络可以获得人类般的组合推理能力。
他们还将MLC和人类在相同的系统性泛化测试中进行了比较。结果机器学习的系统性泛化基准测试表明,MLC错误率不到1%,并且还可以模拟人类的认知偏见导致的错误。
相比之下,GPT-4 在相同的任务中平均失败率在42%到86%之间,具体取决于研究人员如何提出任务。
挑战已存在35年的观点
35年前,认知科学家Fodor、Pylyshyn提出了一个著名的观点:
人工神经网络由于缺乏组合性,不太可能成为合理的认知模型。
换句话说,人类语言和思维的精髓在于系统性组合,而神经网络只能表示特定的事物,缺乏这种系统性组合能力。
这个观点引发学界激烈讨论。其中反驳观点主要集中于两个方面。
一是尽管人类的组合技能很重要,但它们可能并不具有Fodor、Pylyshyn所说的那样的系统性和规则性。
二是虽然神经网络在基本形式上受到了限制,但使用复杂的架构可以增强系统性。
虽然最近几年,神经网络在自然语言处理等方面有了很大进展和突破,相关辩论也随之升级。
但时至今日,系统性的问题仍没有一个定论。
基于此,纽约大学心理与数据科学助理教授Brenden M. Lake、西班牙加泰罗尼亚研究所(ICREA)研究教授Marco Baroni提出了一种叫做MLC的元学习神经网络模型。
具体来说,用的是一种通过特殊指导和人类示例来指定模型行为的方法,然后要求神经网络通过元学习获得正确的学习技巧。
研究人员还表示,MLC使用的是标准的Seq2Seq架构,常见的神经网络并没有添加符号机制,也没有手动设计内部表示或归纳偏见。
举个例子来说明训练过程。如下图所示,给神经网络模型一个“连续跳跃两次”(skip twice)的指令。并用箭头和小人来展示学习示例,告诉机器jump(跳)、skip(跳过)、jump twice是怎样的。
然后将输出的skip twice和行为目标比较:
类似情境,引入下一个词“向后踮脚尖绕过一个锥体”,要求神经网络组合向后走(walk backwards)、踮脚尖(tiptoe)、绕锥体行走(walk around a cone)的动作,推出如何“向后踮脚尖绕过一个锥体”。
机器VS人类
为了展示MLC方法的性能,研究人员对人类和机器在相同的系统性泛化测试中进行了评估。
实验基于一个少样本学习伪语言任务进行,其中词汇与特定的符号或颜色有关。
比如给出基本词汇,“dax”是红色,“wif”是绿色,“lug”是蓝色。
还有三个Function。Function 1中,“lug fep” 代表三个蓝色的连续圈圈,“dax fep” 代表三个红色的连续圈圈。
Function 2代表的是交替,像“lug blicket wif” 代表蓝绿蓝三个颜色的圈圈。
Function 3代表把输出顺序倒过来,像“dax kiki lug” 代表蓝红(根据基本词汇应该是红蓝)。
还可以组合不同的Function,比如“wif blicket dax kiki lug”是蓝绿红绿。
△MLC架构
然后研究人员对25名人类的反应和机器的反应进行了比较:
研究人员还测试了在不给出任何示例的情况下,人类和机器归纳这种方法后的输出,为的是测验人类的归纳偏见:
测试后的结果表明,人类能够系统性地泛化,正确率约为80%,但也存在一些偏见。
而使用MLC方法机器可以达到或超过人类的系统性泛化水平。
MLC还可以预测哪些指令对人们来说更容易或更难。
下图展示了模型预测人类行为的log-likelihood值(用来判断模型预测数据的好坏),数值越大表示模型的预测越准确:
研究人员还在两个常见的机器学习的系统性泛化基准测试SCAN、 COGS中,着重关注MLC处理新单词和单词组合方面的表现,结果显示错误率不到1%。
△在机器学习基准测试中进行系统性词汇泛化的错误率
他们还表示,在纯粹的代数推理和模拟人类复杂组合行为的情况中,MLC还可以模拟人类的认知偏见导致的错误模式,这说明神经网络是一种很好的建模工具。
引发热议
美国圣达菲研究所的计算机与认知科学家Melanie Mitchell表示:
这项研究是一个有趣的原理证明,但这种训练方法是否可以扩展到更大的数据集甚至图像,还有待观察。
德国奥斯纳布吕克大学自然语言处理专家Elia Bruni表示:
这项研究可以使神经网络更高效地学习,将减少像ChatGPT等所需的训练数据量,并减少“幻觉”。
将系统性注入神经网络是一件大事,它可以同时解决这两个问题。
但也有网友指出Nature的标题有点唬人了:
人类的沟通是多样且多层次的,可以从太多角度总结 ,所以有必要持合理的怀疑态度,同时还需要证据和测试结果。
还有网友表示用这种方法能够击败GPT-4是因为提示的问题:
我觉得一名高级的提示工程师使用GPT-4可以达到正确率85%的效果。“根据研究人员如何呈现任务,准确率在42%到86%之间”这话确实会让人产生疑虑。
考虑到主观因素,希望他们能展示是如何提出这个任务的,至少比只给一句话要详细。
论文链接:www.nature.com/articles/s4…
参考链接:
[1]www.nature.com/articles/d4…
[2]news.ycombinator.com/item?id=380…
版权所有,未经授权不得以任何形式转载及使用,违者必究。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
转载请注明出处: https://daima100.com/36662.html