新物网

当前位置:首页 > 科技

科技

人工智能是鹦鹉学舌吗?AI将如何改变世界?

时间:2023-12-17 13:07:38
现在LLM还有相当多的盲点,所以我们还不能把它称为通用人工智能(AGI,具备与生物大脑类似智慧的机器),但一些研究人员认为,它们这些涌现能力表明,科技公司距离AGI也许比乐观主义者猜测的还要更近。

没有人知道人工智能(AI)将如何改变世界,原因之一是没有人真正了解这些人工智能的内部运作方式。 一些人工智能系统的能力远远超出了它们所接受的训练,甚至连它们的发明者都感到困惑。 研究人员还试图理解为什么大型语言模型能够学习从未有人告诉过他们的东西。 越来越多的测试表明,这些人工智能系统就像我们人类的大脑一样,可以构建现实世界的内部模型,尽管它们的方式与我们不同。

AI是鹦鹉吗?

布朗大学的埃莉·帕夫利克 (Ellie Pavlik) 是致力于填补这一空白的研究人员之一。 帕夫利克说:“如果我们不了解人工智能的工作原理,那么任何优化人工智能、使其更安全或类似的尝试对我来说都是荒谬的。”

在某种程度上,Pavlik 和她的同事了解生成式预训练 Transformer (GPT) 和其他类型的大型语言模型 (LLM)。 这些模型依赖于一种称为“神经网络”的机器学习系统 - 其结构是根据人脑中的神经元连接松散建模的。 用于构建神经网络的程序代码相对简单,仅占用几个屏幕即可创建自动校正算法。 该算法可以统计分析数百GB的互联网文本,然后选择最有可能的单词来生成一段内容。 一些额外的培训还可以确保系统以对话格式呈现结果。 从这个意义上说,它所做的只是重复所学到的东西——用华盛顿大学语言学家艾米丽·本德的话说,这是一只“随机的鹦鹉”。 这并不是要抹黑亚历克斯,这只已故的非洲灰鹦鹉,它能够理解颜色、形状和面包等概念,并相应地使用这些词。 然而,法学硕士也通过了律师资格考试,写了一首关于希格斯玻色子的十四行诗,甚至试图拆散用户的婚姻。 很少有人预料到一个相当简单的自动更正算法可以具有如此广泛的功能。

此外,GPT和其他AI系统还可以执行未经训练的任务,从而产生一些“紧急能力”(随着模型规模的增大而不可预测地出现的能力)。 这甚至让那些普遍对过度炒作的法学硕士持怀疑态度的研究人员感到惊讶。 美国圣达菲研究所人工智能研究员梅兰妮·米切尔表示:“我不知道他们是如何做到的,也不知道他们是否能像人类一样在更一般的意义上做到这一点,但是现在情况挑战了我的观点。”

加拿大蒙特利尔大学的人工智能研究员 Joshua Bengio 表示:“它肯定比 Random Parrot 好得多,而且它确实构建了一些现实世界的内部表征——尽管我认为它与构建的不一样。”在人类大脑中。世界的建模方式并不完全相同。”

突现能力

今年3月,在美国纽约大学举行的一次会议上,哥伦比亚大学哲学家Raphael Miliere展示了LLM的又一令人瞠目结舌的能力。 我们已经知道这些模型具有令人印象深刻的编码能力,但由于网上有大量代码可供模仿,因此也就不足为奇了。 相比之下,Miliere进一步证明了GPT也具有执行代码的能力。 这位哲学家输入了一个程序来计算斐波那契数列中的第 83 个数字。 “执行这个程序需要非常先进的多步骤推理,”他说。 尽管人工智能聊天机器人看起来不应该能够做到这一点,但它确实可以。 然而,当 Milie 直接询问它第 83 个斐波那契数是什么时,它回答错误。 这样,它就不再只是一只“随机鹦鹉”只能根据所看到的数据输出答案,而是可以通过执行运算得出答案。

虽然LLM运行在计算机上,但它本身并不是计算机。 因为它缺乏必要的计算元素,例如工作记忆(用于短期存储和处理信息的记忆系统)。 GPT 默认情况下无法自行运行代码,因此其发明者科技公司 OpenAI 推出了一个特殊的插件,以便生成式预训练聊天机器人在回答问题时可以使用此工具运行代码。 然而Milliere展示的作品并没有使用这样的插件。 相反,他推测 GPT 可以利用其在上下文中解释单词的能力来暂时创建记忆,这种行为很像自然界中的有机体重新利用现有能力来执行新功能。

这种暂时生成记忆的能力表明法学硕士已经发展出远远超出简单统计分析的内部复杂性。 研究人员发现,这些系统似乎真正理解了他们正在学习的内容。 在今年5月举行的国际表征学习大会上,美国哈佛大学博士生Kenneth Lee及其同事报告了一项研究,他们构建了一个更小的GPT神经网络来研究其内部运作。 他们通过输入国际象棋棋步作为文本,在数百万局黑白棋中训练模型,使模型成为近乎完美的棋手。

为了研究神经网络如何编码信息,他们使用了蒙特利尔大学的 Bengio 和 Guillaume Alain 于 2016 年开发的技术。 他们创建了一个由微小“探针”组成的网络,逐层分析主网络。 肯尼思·李将此比作神经科学中的方法,“就像将探针放入人脑中”。 以 Kenneth Lee 等人训练的 AI 模型为例,探针显示了其“神经活动”。 ” 与黑白棋的表示相匹配,但采用的是卷积的形式。 为了证实这一点,研究人员在将信息嵌入网络的同时反向运行探针,例如,在棋盘游戏中将黑色棋子翻转为白色棋子。 “基本上,我们侵入了这些语言模型的‘大脑’,”肯尼斯·李说。 结果表明,神经网络相应地调整了它们的行为。 研究人员推测,它玩黑白棋的方式与人类非常相似:它在“头脑”中想象一个棋盘,并使用这个模型来评估可能的走法。 Kenneth Lee 认为系统能够学习这项技能,因为它是对其收到的训练数据最简洁的描述。 “如果你有一堆游戏脚本,压缩数据的最佳方法就是尝试找出其背后的规则,”他补充道。

这种推断外部世界结构的能力不仅限于简单的国际象棋走法; 它也体现在谈话中。 麻省理工学院的研究人员使用文本冒险游戏研究神经网络。 他们会输入诸如“钥匙在宝箱里”之类的短语,然后输入“你拿着钥匙”。 使用探针,他们发现这些神经网络内部编码了对应于“宝箱”和“你”的变量,每个变量又分为“有钥匙”和“无钥匙”两种情况,而变量的值将是使用不同的输入语句不断更新。 系统无法独立理解宝箱和钥匙的含义,但它可以从句子中挑选出完成任务所需的概念。

研究人员对法学硕士能够从文本中学到多少东西感到惊讶。 例如,Pavlik 和同事发现这些神经网络可以从互联网上的文本数据中获取颜色的描述,然后构建颜色的内部表示。 当他们看到“红色”这个词时,他们不仅将其视为抽象符号,而且将其视为与栗色、深红色、紫红色和铁锈色等颜色有某种联系的概念。 展示这一点有点棘手。 研究人员没有使用探针,而是研究了人工智能模型如何响应一系列文本提示。 为了测试人工智能系统是否只是简单地模仿互联网数据中不同颜色之间的关系,他们试图通过告诉系统红色实际上是绿色来误导系统。 结果显示,AI系统并没有复制错误答案,而是输出了经过适当修正的正确答案。 人工智能可以通过寻找训练数据背后的逻辑来自我纠正。 微软研究院机器学习研究员 Sebastian Bubeck 表示,数据范围越广,系统发现的规则越通用。

情境学习

除了提取语言的潜在含义之外,LLM还可以立即学习和使用。 在人工智能领域,“学习”一词通常用于计算密集型过程,其中涉及开发人员向神经网络提供千兆字节的数据并修改其内部连接。 当你向生成式预训练聊天机器人提出问题时,神经网络应该是固定的,因为它不会像人类那样不断学习。 但令人惊讶的是,LLM 实际上可以学习根据用户给出的提示生成上下文相关的输出。 这种能力被称为“In-context Learning”(也称为情境学习)。 人工智能公司 SingularityNET 的创始人 Ben Goetzel 表示:“这是一种完全不同的学习方式,我们以前并没有真正理解。”

人类与人工智能聊天机器人互动的方式就是法学硕士学习方式的一个例子。 您可以向系统提供您希望其如何响应的示例,它会遵循您的指示。 它的输出取决于它所看到的最后几千个单词,这是由人工智能模型的固定内部连接决定的行为——尽管单词序列提供了一定程度的可变性。 整个互联网致力于寻找允许模型“越狱”自身的提示词,从而击败系统防御——例如,这会阻止它告诉用户如何制作管道炸弹——通常是通过将模型引导到“玩”一个不受保护的系统来实现。 有些人用“越狱”来实现一些可疑的意图,而另一些人则用“越狱”来获得更有创意的答案。 佛罗里达大西洋大学机器感知与认知机器人实验室联席主任威廉·哈恩表示,与直接询问AI科学问题而不添加“越狱”提示词相比,添加后AI可以表现得更好。 “我认为这将能够更好地解决科学问题。” 换句话说,“越狱模型更擅长解决学术问题”。 另一种情境学习是通过一种称为“思维链”的提示方法来实现的。 这种方法要求神经网络阐明其推理过程中的每一步,使法学硕士能够更好地解决需要多步骤推理的逻辑或算术问题。 值得注意的是,米利埃的研究并没有使用类似的提示方法,这也是其如此令人惊讶的原因之一。

2022年,由谷歌研究院和苏黎世瑞士联邦理工学院的研究人员组成的团队发现,情境学习和标准学习都遵循一种称为“梯度下降”的基本算法——操作是由AI系统在其机器上发现的。无需人类帮助即可拥有。 “这是人工智能学习的一种能力,”谷歌研究副总裁布莱斯·阿吉拉-阿尔卡斯说。 事实上,他认为LLM可能还有其他尚未被发现的能力。

LLM仍然存在相当多的盲点,因此我们还不能称其为通用人工智能(AGI,一种具有类似于生物大脑的智能的机器),但一些研究人员认为,它们的新兴能力表明科技公司可能会接近AGI。 这比乐观主义者的猜测更接近。 “它们间接证明我们距离 AGI 可能并不遥远,”Goetzel 在 3 月份佛罗里达大西洋大学的深度学习会议上说道。 OpenAI 的插件为生成式预训练聊天机器人提供了模块化架构,与人类大脑有些相似。 麻省理工学院研究员 Ana Ivanova 表示:“将最新版本的 LLM GPT-4(为生成式预训练聊天机器人提供支持)与各种插件相结合可能是通向 AGI 的途径。 但与此同时,研究人员也担心他们研究这些系统的机会之窗可能正在关闭。OpenAI 尚未透露有关 GPT-4 的设计和训练的细节,部分原因是它被锁定在与 GPT-4 的竞争中。其他公司,如谷歌,更不用说其他国家了。丹·罗伯茨是麻省理工学院的理论物理学家,他运用自己的专业知识来理解人工智能。“该行业可能会发表更少的研究成果,围绕构建产品的研究工作将变得更加孤立和组织化,”罗伯茨说。

圣达菲研究所的米切尔表示,缺乏透明度不仅不利于研究。 这也阻碍了我们对人工智能热潮的社会影响的理解。 “这些模型的透明度是确保人工智能安全的最重要因素。”

(撰:乔治·马瑟 译:陶兆伟)

(本文由《环球科学》杂志撰稿)