神经网络模型在没有训练的情况下从例子中学习
麻省理工学院(MIT)的一项研究表明,大型语言模型可以仅从几个例子中学习一项新任务,而不需要任何新的训练数据。
人工智能和机器学习洞察力
- 麻省理工学院的研究人员发现,类似于大型语言模型的大规模神经网络模型能够使用简单的学习算法完成一项新任务。
- 这是随着GPT和其他神经网络的兴起而扩大人工智能(AI)和机器学习(ML)的更大努力的一部分,这些网络显示出它们在帮助人类工作者和改变信息收集和处理方式方面的潜力。
像OpenAI的GPT-3这样的大型语言模型是巨大的神经网络它可以生成类似人类的文本,从诗歌到编程代码。这些机器学习模型使用大量互联网数据进行训练,获取一小部分输入文本,然后预测接下来可能出现的文本。
但这并不是这些模型所能做的全部。研究人员正在探索一种被称为语境学习的奇怪现象,在这种现象中,一个大型语言模型在只看到几个例子后就学会了完成一项任务——尽管它没有接受过这项任务的训练。例如,有人可以向模型输入几个例句和他们的情绪(积极的或消极的),然后用一个新句子提示它,模型就可以给出正确的情绪。
通常,像GPT-3这样的机器学习模型需要用新数据重新训练来完成这项新任务。在这个训练过程中,模型在处理新信息以学习任务时更新其参数。然而,使用上下文学习,模型的参数不会更新,所以看起来模型在学习新任务时根本没有学习任何东西。
来自麻省理工学院、谷歌Research和斯坦福大学的科学家们正在努力解开这个谜团。他们研究了与大型语言模型非常相似的模型,看看它们如何在不更新参数的情况下进行学习。
研究人员的理论结果表明,这些庞大的神经网络模型能够包含更小、更简单的线性模型。然后,大模型可以实现一个简单的学习算法来训练这个较小的线性模型来完成新任务,只使用大模型中已经包含的信息。它的参数保持不变。
Ekin Akyürek是一名计算机科学研究生,也是一篇探索这一现象的论文的主要作者,他说,这是理解上下文学习背后机制的重要一步,这项研究为更多探索这些大型模型可以实现的学习算法打开了大门。随着对语境学习的更好理解,研究人员可以让模型完成新的任务,而不需要昂贵的再训练。
“通常,如果你想对这些模型进行微调,你需要收集特定领域的数据并做一些复杂的工程。但现在我们只要给它一个输入,五个例子,它就完成了我们想要的。因此,情境内学习是一种不合理的高效学习现象,需要被理解。”Akyürek说道。
与Akyürek一起发表论文的还有谷歌Brain的研究科学家、阿尔伯塔大学(University of Alberta)计算科学教授戴尔·舒尔曼斯(Dale Schuurmans);以及资深作者Jacob Andreas,麻省理工学院电气工程和计算机科学系X联盟助理教授,麻省理工学院计算机科学和人工智能实验室(CSAIL)的成员;斯坦福大学计算机科学与统计学助理教授马腾宇(Tengyu Ma);以及谷歌Brain的首席科学家和研究总监Danny Zhou。这项研究将在学习表征国际会议上发表。
麻省理工学院的研究人员发现,类似于大型语言模型的大规模神经网络模型能够在其隐藏层中包含更小的线性模型,大型模型可以使用简单的学习算法训练这些模型来完成新任务。提供:麻省理工学院的Jose-Luis Olivares
模型中的模型
Akyürek表示,在机器学习研究界,许多科学家已经开始相信大型语言模型可以进行上下文学习,因为它们是如何训练的。
例如,GPT-3拥有数千亿个参数,通过阅读互联网上的大量文本(从维基百科文章到Reddit帖子)进行训练。因此,当有人展示一个新任务的模型示例时,它可能已经看到了非常相似的东西,因为它的训练数据集包括来自数十亿个网站的文本。它会重复在训练中看到的模式,而不是学习执行新的任务。
Akyürek假设情境学习者不仅仅是在匹配之前看到的模式,而是实际上在学习执行新的任务。他和其他人尝试用合成数据给这些模型提示,这是他们以前在任何地方都看不到的,他们发现模型仍然可以从几个例子中学习。Akyürek和他的同事们认为,也许这些神经网络模型内部有更小的机器学习模型,这些模型可以训练来完成一项新任务。
“这可以解释我们在这些大型模型中看到的几乎所有学习现象,”他说。
为了验证这一假设,研究人员使用了一种称为变压器的神经网络模型,该模型具有与GPT-3相同的架构,但经过了专门的上下文学习训练。
通过探索这个变压器的架构,他们从理论上证明了它可以在隐藏状态下编写线性模型。神经网络由处理数据的多层相互连接的节点组成。隐藏状态是输入层和输出层之间的层。
他们的数学计算表明,这个线性模型写在变压器的最早期层的某个地方。然后转换器可以通过实现简单的学习算法来更新线性模型。
从本质上讲,这个模型模拟和训练的是一个更小的模型。
探测隐藏层以找到数量
研究人员通过探测实验来探索这一假设,他们在变压器的隐藏层中寻找并试图恢复一定的数量。
“在这种情况下,我们试图恢复线性模型的实际解,我们可以证明参数是在隐藏状态下写的。这意味着线性模型是存在的,”Akyürek说。
在这一理论工作的基础上,研究人员可能能够通过向神经网络添加两层来使变压器执行上下文学习。Akyürek提醒说,在这成为可能之前,还有许多技术细节需要解决,但它可以帮助工程师创建可以完成新任务的模型,而不需要使用新数据进行再训练。
接下来,Akyürek计划继续探索具有比他们在这项工作中研究的线性模型更复杂的功能的上下文学习。他们还可以将这些实验应用于大型语言模型,看看他们的行为是否也可以用简单的学习算法来描述。此外,他还想更深入地挖掘可以实现上下文内学习的预训练数据类型。
“通过这项工作,人们现在可以想象这些模型如何从样本中学习。所以,我希望它能改变一些人对语境学习的看法。”Akyürek说道。“这些模型并不像人们想象的那么愚蠢。他们不只是记住这些任务。他们可以学习新的任务,我们已经证明了这是可以做到的。”
您是否具有本内容中提到的主题的经验和专业知识?你应该考虑为我们的CFE媒体编辑团队做出贡献,并获得你和你的公司应得的认可。点击在这里开始这个过程。