新物网

当前位置:首页 > 科技

科技

教 7 岁孩子理解 ChatGPT

时间:2024-01-09 15:30:43
是否可以用一些通俗的解释,让即使只有7岁的小孩都能搞清楚的基本原理和应用前景?小宝:现在我知道了,是一个擅长做填空题的聊天机器人。我是一个会做填空题的人类小孩,我会做是因为我学过,它呢?小宝:科学家是不是想用数学解决一切问题?小宝:所以,为什么要让一个7岁小孩学习这么枯燥的东西?

教 7 岁孩子理解 ChatGPT

全世界都在议论,你却不懂?

不要恐慌! 有很多人不理解,因为它涉及太多、复杂的概念。 提起它,就无法回避大语言模型、深度学习、神经网络、人工智能……对于非专业人士来说,理解这一堆抽象概念确实没那么容易。

是否可以用一些通俗的解释,让年仅7岁的孩子也能明白基本原理和应用前景? 我认为这件事值得尝试。 毕竟,热度持续了整个2023年(甚至它的每一次更新都会被媒体称为“史诗级更新”)。 未来大家或许应该更加意识到这种可能性。 无论多么难以理解,它都会彻底改变我们的生活。

为了更容易理解,我以对话的形式来呈现这篇文章,假设和我说话的人是一个7岁的孩子。 需要说明的是: 1、本次对话内容纯属虚构,并非真实发生的对话; 2、对话中为了更容易理解,做了很多简化和类比,因此可能不够准确,可能存在错误。 ,欢迎专业人士指正; 3、部分对话内容参考了类似问题的解答。

好吧,让我们开始这次对话吧。

01 大语言模型的初果

小宝:什么?

树龙:聊天机器人。

小宝:很高兴你没有用很多陌生的词语来形容。 那么,这个聊天机器人有什么特别之处呢?

树龙:比以前的聊天机器人强大无数倍。 具体来说,它理解您的问题并在上下文中给出很好的答案——富有创意的答案,而不仅仅是重复某些台词。 有研究认为,人类的心理水平接近9岁儿童的水平。

小宝:哈,那就比我聪明了。 但它毕竟只是一个聊天机器人。 我不明白为什么人们会为之疯狂?

树龙:真正让人抓狂的是其背后的技术——大语言模型。 你可以把它想象成一棵神奇树的树干,但只是长在它的一根树枝上的果实。 大语言模型的主干是语言专家,能够用自然语言(英语、汉语等人类自然语言)与人类顺利交流,也能胜任很多与语言相关的任务。

小宝:嗯,我想知道这棵树上还会长出什么枝条?

树龙:很多人都在研究这个问题,目前可能的方向是:助手GPT,像秘书一样安排你的数字生活; 学习GPT,帮助你像知识渊博的老师一样提升自己; 编程GPT,讲根据你的需求,它会立即帮你创建你想要的软件; 客服GPT,替代99%的人工客服问题; 创作GPT,帮你写文档、制作PPT,甚至写故事、诗歌……

小宝:如果不知道具体是怎么回事,我还以为你说的都是吹牛。

树龙:持怀疑态度,它很有价值,它会让你的理解更深。

02 填空专家

小宝:那么,具体如何操作呢? 为什么它这么聪明?

树龙:你可以这么理解,就是做“填空题”,根据已知的文本来预测下一个出现的单词应该是什么。

小宝:这和人类有很大不同。

树龙:是的,人类首先要明白问题是什么,然后根据问题的要点来组织语言并给出答案。 它只是不断地进行这样的计算——根据已知的单词(或句子),接下来应该出现哪些单词,概率是多少,然后选择它认为合适的单词并将它们组织为答案。

小宝:你的意思是,它其实听不懂人类在说什么,它自己也听不懂? 相反,你是在做一道又一道的“概率计算题”吗?

树龙:确实如此。 从它的工作原理来看,我们可以说它并不能真正理解人类的语言,但如果不考虑它的工作原理,而是根据它的性能来评价,它不仅能理解人类的语言,而且还是一个语言大师。 。

小宝:我开始对“我聪明不聪明”这个问题感到困惑了。

树龙:其实,70多年前,一个叫“阿兰·图灵”的英国人就已经被这个问题搞糊涂了。 他想出了一种方法来测试机器是否具有与人类相同的智力水平。 这种方法被称为“图灵测试”。 简单来说,图灵测试就是让机器与人类对话(以文本的形式)。 如果人类无法分辨出它是机器,那么就可以说机器具有智能。

小宝:这次考试你一定能通过的。

树龙:是的,今年7月,《》》曾在文章中表示,它已经突破了图灵测试。

03 用数学解决语言问题

小宝:现在我知道了,它是一个擅长填空的聊天机器人。 我是一个会做填空题的人类孩子。 我能做到,因为我已经学会了。 那又怎样呢?

树龙:就像你的老师会训练你一样,开发者也会训练它。 主要通过学习互联网网页和电子书来提高自己。 迄今为止,人类已经创建了数十亿个公共网页,制作了500万本电子书,这些都是学习的“教科书”。

小宝:人类永远无法读懂这么多东西。

书龙:是啊,这么大量的读书可以让傻子变成天才。 通过训练,我掌握了单词之间的关系,隐藏在句子背后的语法规则,以及一些语言的逻辑关系。 终于搭建了一个“大语言模型”……

小宝:等等,你要先说说什么是“模型”?

树龙:模型可以理解为对复杂系统的简化描述,目的是模拟和预测系统的行为。 例如,地图APP是现实世界的模型。 通过地图APP,您可以轻松计算出两地之间的距离。 同样,语言模型可以理解并生成文本,图像模型可以识别图像中的对象。 语言模型的本质是做一系列复杂的数学计算,但对于用户来说,它就像一个魔盒。 当你提出问题时,它会给你答案。

小宝:再举个例子。

树龙:你看过电视剧《三体》吗? 在《三体》中,冯·诺依曼用3000名士兵组成了一台人形计算机。 事实上,他想创建一个基于计算的太阳运动模型来预测恒历元和混沌。 纪元循环,但失败了。 说起来,其背后的大语言模型成功地将复杂的人类语言问题转化为数学问题,令人惊叹。

《三体》人体柱式电脑

小宝:科学家是想用数学来解决所有问题吗?

树龙:数学无处不在。 许多科学领域,如物理、化学、生物学等,都依赖数学来建立模型、进行分析和做出预测。 技术工程和人文领域也离不开数学。 有些人认为数学是宇宙的通用语言,因为它提供了精确、清晰、抽象的表达方式,帮助我们理解和描述自然规律。 但在过去,人们并不相信人类的智能(例如理解和使用自然语言的能力)也可以被计算。 并且就是这么做的。

小宝:这是什么意思?

树龙:也许,人类的语言并没有我们想象的那么复杂; 也许,人脑只是一个基于数学计算的模型。

04 模仿人脑

小宝:是真正的人工智能吗?

树龙:当然。 人工智能(AI)简单来说就是让机器拥有与人类相似的智能。 它具有广泛的意义。 语音识别和人脸识别都被认为是人工智能。 在它出现之前,人工智能的应用比较简单,比如下棋,或者医疗、金融等垂直领域。 你可以把这些人工智能想象成职业学校毕业的中专学生。 他们有一定的技能,但能力不够通用。 并且就像一个完成了本科学位的大学生一样,具备了良好的能力基础,能够适应未来多种工种的工作。

小宝:为什么以前做不到呢?

树龙:站在巨人的肩膀上,当然也有一些时机和运气。 有句话叫“人工智能三要素”,指的是人工智能的三个主要组成部分:数据、算法和计算能力。 其中,数据用于训练模型,互联网的发展创造了海量数据; 训练模型需要大量的计算资源,即计算能力。 近年来,随着GPU和云计算的广泛应用,算力规模不断扩大; 在算法层面,2017年,一篇题为《is all your need》的科研论文介绍了一种名为 的模型架构,这给公司带来了启发,他们使用这种架构创建了它。

小宝:我还是不明白为什么数学模型可以像人脑一样聪明?

树龙:可能是因为它模仿了人类的大脑。

小宝:人的大脑是如何运作的?

树龙:人脑中有1000亿个神经元(神经细胞)。 它们相互连接,通过电化学信号传递信息,形成一个巨大的神经网络。 比如,当你看到一个水果时,神经元会分析它的颜色、形状、味道等信息,然后结合之前的判断模式来判断它是苹果还是桃子。 如果你想通过训练提高你的大脑识别更多水果的能力,那么你需要把许多不同种类的水果带到你面前,并告诉你它们的名字。 您的大脑将慢慢建立识别水果的模式。 因此,学习非常重要。

小宝:你刚刚给我完成了一次训练。

树龙:是的。 大型语言模型的情况类似。 里面还有一个巨大的人工神经网络。 以GPT-3版本为例,它大约有数亿个神经元和1750亿个权重(可以理解为神经元之间的连接强度)。 在训练过程中,这些神经元协同工作,识别大量的输入文本数据,学习其中的语言知识、语法规则和常识,然后不断调整模型,建立模型对不同文本的响应模式。

小宝:如果你要研究数十亿个网页和500万本电子书,你会累吗?

:这么大的语言模型计算量非常大。 随着大型语言模型越来越多,对GPU(图形处理单元)的需求越来越大,生产GPU的公司在过去两年利润翻了一番。 为什么不使用传统计算机中使用的CPU(中央处理器)呢? 因为训练大型语言模型需要大量复杂的并行(同时)计算,而这正是 GPU 的强项。

小宝:相比之下,人脑就厉害了,神经元数量是人类的100倍。 只要每天吃几顿饭,它就能继续工作。

树龙:是的,能耗极低。 也许人脑就是一台超级计算机。 在人类七万年的历史中,基因接受过各种各样的生存训练。 当我们出生的时候,后天我们就会接受新的训练。 这些培训共同建立了我们如何应对事件的模式。 一些研究认为,每个人每天可能会做出数以万计的决定。 也许我们大脑工作的本质也是数学计算。

05 小心人工智能!

小宝:好吧,我现在知道是什么了。 它是人类语言的大师,拥有类似于人脑的神经网络。 经过人类知识的训练,它建立了一套语言模式。 如果你在其中输入一些文本,它就会计算并输出相应的“答案”。

树龙:总结得很准确。

小宝:那么,一个7岁的孩子为什么要学这么无聊的东西呢?

树龙:就像90后被称为“互联网原住民”一样,10后的你们正在成为“人工智能原住民”,应该更多地了解自己的时代。

小宝:但是我觉得目前为止,它除了聊天什么也做不了。

树龙:别太着急,很多不同功能的GPT正在路上。 未来,您将有秘书GPT帮您安排行程、订票、找餐厅、打车; 您还将有多个学习 GPT 为您授课、帮助您完成作业并回答您的问题; 当你进入社会时,你也不需要做基本的文案或传播工作,而是专注于AI无法解决的高级问题; 所有的交通信号灯都由AI管理,甚至我们的火车、飞机、汽车司机也将成为AI……

小宝:你怎么感觉有些不对劲?

书龙:我的描述让你想起一些科幻电影,人工智能控制一切,包括人类。 突然的出现,仿佛揭开了故事的第一页。 很多人都变得警惕起来。

《洛奇2》人工智能分钟小姐想变成人类

小宝:那为什么要让AI接管红绿灯、飞机、汽车呢?

树龙:因为AI接管更方便、更高效、更安全(理论上),特别是可以用自然语言与人类交流的AI。 就像人类学会种田后就不再流浪一样,人类一旦开始依赖人工智能就不会回到过去; 农业减少了人类的活动范围,使人体退化,人工智能也会带来新的问题。 。

小宝:根据消息,很多人担心失业。

树龙:是的,人工智能不可避免地会导致一些人失业,但失业的本质是财富分配问题。 有的人通过人工智能获得了更大的利益,有的人因为人工智能失去了工作。 财富已经从后者转移到前者,需要社会调整。 但大家尽早学习和使用人工智能是非常有必要的。

小宝:人工智能也可以被坏人利用。

树龙:非常正确。 人工智能只是一个能够高效完成人类分配给它的任务的工具。 如果人工智能被坏人掌握,可能会被用于武器、非法牟利等。

小宝:那我们一定要把AI牢牢掌握在好人手中!

树龙:也不完全有效。 如果AI实现了超级智能,它可能会发展出自己的意识,而AI自身的发展可能会对人类造成威胁。

小宝:我们可以给所有的人工智能写一些不会伤害人类的基本规则,然后将它们运出工厂。

树龙:你的意思就像是“机器人三定律”—— 1、不得伤害人类或无视人类受到伤害; 2.它必须服从人类的命令,除非命令与1相冲突; 3.机器人必须保护自己,并且不能在违反1和2的前提下。但事实上,简单的规则不足以解决所有问题,就像我们制定了那么多法律法规,但仍然无法解决现实生活中的所有问题冲突。 每个AI都会有自己的目标,人类也会有自己的目标。 冲突是不可避免的。

小宝:那我们该怎么办呢?

树龙:这是全社会的重大问题,目前还没有一个现成的答案。 你只需要记住,“人工智能威胁论”并非毫无根据,我们应该给予这个问题更大的决策权重。

小宝:就是这样。 我想说你成功地训练了我。

树龙:我很高兴这可以优化你大脑的算法。 然而,这仅仅是开始。 在人工智能方面,我们还有很长的路要走。

本文来自微信公众号“树龙谈”(ID:),作者:树龙,36氪经授权发布。