使用智浦AI的“GPT”,我只花了30秒就构建了一个Agent。
使用智浦AI的“GPT”,我只花了30秒就构建了一个Agent。
文字| 周新宇
编辑|唐艳
春节前,智普AI给开发者们送上了一个小年夜礼。
2024年1月16日,中国模型层独角兽智普AI举办首届AI技术开放日Dev Day。 自2023年10月发布大语言模型以来,智浦AI在3个月内将基础模型GLM的能力提升了60%。
随着模型能力的提升和AI应用生态的建立,模型层厂商建立OS(操作系统)是水到渠成的事。 智普AICEO张鹏向36氪直言,打造操作系统并不是什么野心,“而是模型能力达到一定程度后自然而然要做的事情”。
智普AI Dev Day的发布围绕迭代模型、建立AI应用生态、打造AI OS等三大重点:
对于许多开发人员来说,这些更新听起来很熟悉。 2023年11月16日,定制模型生成工具GPTs和应用商店在Dev Day上线,这也被视为打造AI OS的标志。
对于智普AI来说,是最强的对手,也是技术能力的试金石。 为了对标,智普AI建立了从通用模型库到多模态模型的产品线。
智普AI对标建立的产品线
经过摸索过河,张鹏认为GLM-4的能力已经接近GPT-4,达到了构建AI应用生态、构建AI OS的门槛。 他还预测,模型能力的下一次飞跃将发生在具身智能的突破上。
一次处理300页小说,模型能力达到GPT-4的90%
从模型能力上来说,是智浦AI一直在追赶的对手。
Dev Day最新发布的GLM-4目前在基础英语能力上与GPT-4不相上下,均达到了对手90%的能力; 就中文能力表现而言,除了逻辑推理和中文推理两项能力逊色于GPT-4外,其他维度都互相超越。
在指挥跟随能力维度上,GLM-4还有一定的提升空间。 所谓命令跟随能力,就是模型解释输入和命令的能力,是理解用户意图的重要维度。 在英语理解方面,GLM-4的能力略弱于GPT-4,是后者的85%。
来源:智普AI
随着模型开发阶段从疯狂的参数规模进展到应用的实现,现在,通过扩展上下文窗口来提高模型的“记忆”已经成为许多厂商努力的方向。
GLM-4也不例外。 它将上下文窗口从32K扩展到128K,这意味着一次可以处理大约20万字的文本,相当于一本300页的小说。
当然,可处理的文本越长,模型就越容易“失去记忆”。 据智普AI介绍,GLM-4目前可以实现几乎100%准确的记忆回忆。
作者将马伯庸的九万字小说《长安荔枝》全文上传后,可以看出,GLM-4不仅准确测定了李善德运送荔枝所需的天数,还总结了他成功运送荔枝的方法。保存荔枝,还找到了刺杀李善德的人。 真正的凶手。
作者试用
定价方面,128K系列机型采取“增量不加价”的策略。 与32K-Turbo相比,128K GLM-3-Turbo的价格没有上涨,仍然是0.005元/千; 128K GLM-4售价为0.1元/千,约为GPT-4价格的1/2。
来源:智普AI
在Dev Day上,智普AI还披露了其在多模态研究方面的进展。
据智普AI介绍,新推出的图模型能力已经超越最强开源模型XL,接近DALLE·3。 这得益于采用了自主研发的非自回归技术“中继扩散模型”,提高了生成图像的分辨率,解决了模型生成质量不稳定的问题。
,是智浦AI近期的研究方向,就是探索如何从多模态模型走向智能助理。 张鹏告诉36氪,人类对世界的感知仍然离不开视觉和听觉,多模态与Agent的结合是必然趋势。
推出0代码Agent定制工具GLMs,并推出模型应用商店
对比GPT,智普AI在Dev Day发布了GLM。
在这款国产定制Agent生成器中,用户只需用自然语言输入Agent函数,GLM就会自动生成应用名称、配置名称、模型能力调用等配置文件信息。 用户还可以上传外部知识库供GLM学习。
例如,当我们希望GLM自动生成菜谱生成器时,我们可以输入“您是菜谱生成器,用户输入食材,即可生成三菜一汤”。
作者试用
点击“发布”按钮后,名为“识图指南”的GLM就可以在智浦AI的对话机器人“智浦轻言”上使用。
作者试用
然而,GLM 的目标用户并不是企业和高级开发人员。 据现场工作人员介绍,这是一款面向普通用户的Agent生成器。 目前,用户只能在“智浦轻言”的手机端和网页端发布Agent,无法发布独立的App版本。
为了建立基于GLM的AI应用生态,在Dev Day当天,智普AI发布了GLMs模型应用商店,并计划同时公布开发者共享计划。
来源:智普AI
目前,名为“Agent ”的应用商店中已经聚集了数百款基于GLM开发的AI应用。
来源:智普AI
例如,一款名为“‘对茅台有利’分析师”的应用专注于提取对茅台品牌有利的信息。 即使你提出对茅台不利的问题,它也能回来。
作者试用
智浦AI版GPT允许大型模型使用原生应用
用手机或者电脑查询近三年的春运数据并绘制折线图需要几步?
1.打开中国政府网站搜索数据; 2、汇总成Excel表格; 3. 调用图表生成工具。
至少需要三个步骤。
在模型时代,这一步被简化为输入自然语言指令:
作者试用
“这将是AI时代OS(操作系统)的特点。移动时代的iOS和不懂应用程序,但大模型OS可以理解构建在其上的AI原生应用程序。” 张鹏告诉36氪。
此前,GPT已被用来打造AI时代的新版本操作系统:开发者利用GPT基础的低门槛,快速开发定制模型并应用GPT。 集成了这些GPT的GPT自然就成为了最理解这些应用的操作系统。
在Dev Day,智普AI已经对大型模型OS的运行模式进行了初步实践:启动All Tools,让GLM-4作为OS根据模型自动选择和调用图、代码解释器、网页浏览等。用户意图。 模型能力。
All Tools可调用的连续图像和文本创建能力源自智浦AI的图模型。 它的优点是可以根据上下文持续与用户交互。
例如,当我们遇到难缠的甲方最终选择了第一个版本的方案时,我们可以通过以下方式快速找到第一个方案:
作者试用
All Tools可调用的网页浏览能力的特点是模型自行规划检索任务、自行选择信息源、自行与信息源交互、向用户显示检索次数。
例如,仅根据“CES 2024(2024年国际消费电子展)上展位面积最大的中国厂商”信息,网页浏览功能就可以通过两次搜索来搜索TCL并回答与产品发布相关的问题。
作者试用
除了连续的图像和文本创建功能以及网页浏览功能外,All Tools目前还可以调用代码解释器(支持复杂的计算,以及文件处理、数据分析、图表绘制等复杂任务)、调用(自动基于根据用户提供的描述)选择需要的参数并生成,并根据返回值生成响应)。 根据具体任务,All Tools还支持自动调用多个工具。
使用更了解您及其应用程序的操作系统有多棒?
其中一个案例是利用网页浏览和图表绘制功能生成春运数据折线图。
36氪再次尝试让All Tools按照同一个命令使用文字创作和图像设计两种能力。
例如,如果你想为电视剧《繁花似锦》设计公告和海报,只需将这两个要求包含在自然语言命令中,All Tools就可以自动调用其语言理解能力和图像生成能力。
作者试用
张鹏告诉36氪,未来All Tools还将支持调用GLMs模型应用商店上传的各种模型应用。
以下为与智普AI CEO张鹏的对话(内容经36氪略有编辑):
36氪:此前Dev Day发布了GPT和App Store,被视为AI时代的OS(操作系统)。 既然智浦AI已经推出了GLM和应用商店,那么智浦AI是否也有做操作系统的野心呢?
张鹏:我觉得这不叫“野心”,而是模型能力达到一定程度后自然而然的东西。
36氪:什么是“一定程度”?
张鹏:可以理解为模型能力超过人类能力的平均线。 去年(2023年)3月发布的一份解读GPT-4能力的报告得出的结论是,GPT-4在大多数任务上的平均表现已经超过了人类的平均水平。 如果赶上GPT-4,就意味着我们也能超越人类平均水平。
36氪:AI时代的OS和移动时代的OS(比如iOS、)会有本质的区别吗?
张鹏:当然。
信息科学或者说上一代IT技术解决的是数据信息的处理问题。 计算机将所有数据数字化,将其表示为0和1,然后设计一套逻辑来计算它。 然而,上一代IT技术只是一个工具,并不知道它在处理什么,它的意义是什么。 无论iOS还是,他们都不明白自己处理应用程序的意义。
这一代人工智能想要解决的问题是让机器理解自己行为的意义。 所以,这一代OS实际上并不是一个操作系统,而是一个思维系统。 你只需要大致告诉它你想做什么,它就会帮助你思考并完成应用程序的操作。
36氪:未来AI OS与、iOS会是什么关系?
张鹏:如果AI OS要取代传统OS,我认为需要很长时间,也许最终它们会共存。
你还记得《流浪地球》里的这样一个情节吗? 当量子计算机MOSS连接到空间站主控时,它做的第一件事就是:重写所有底层操作系统。
为什么使用重写而不是完全覆盖? 因为底层很多东西只需要机械动作,不需要思考。 和iOS已经很强大了,至少现在它们非常有效,可以控制现有的应用程序。 很难预测操作系统未来会发生什么。
36氪:我们说点比较现实的吧。 国内外许多模型厂商现在都在建设自己的应用商店。 智浦AI如何应对竞争,将更多应用聚集到自己的生态系统中?
张鹏:其实我们想在2021年做一个操作系统,并命名为“MOS”。 与“MOSS”相比,少了一个“S”。 当时我们甚至画了产品设计图,但最终没有做,因为模型不够强大。 我认为聚集更多应用的前提是提高模型能力。
36氪:模型能力迭代到GLM-4目前的能力最关键的节点是什么?
张鹏:首先是(扩大参数规模)。 增加参数数量是提高模型能力的基础。
第二件事是我们做了很多与人类看齐的工作,让模型遵循人类的价值观。
第三件事是开源。 开源的意义并不是让我们的技术更加先进,而是因为单纯依靠我们自己的力量很难追赶上来。 我们需要通过开源的方式引入更多的人进入生态系统,让模型的价值最大化。
智普AI成立大型模型开源基金,向开源社区投资1000块GPU、1000万元、1000亿代币。
第四件事是多模态。 因为语言是人类创造的,所以从语言入手是最容易的,语言模型可以是第一步。 但我们理解和感知世界的方式需要其他感官,因此开始整合多模态非常重要。
最后一个是代理。 多模态允许模型生长面部特征,但模型仍然生活在缸里。 Agent让模型能够长出四肢并真正与真实或数字环境交互,赋予模型自主计划和行动的能力。
所以我们现在看到的GLM-4其实就是我们对这些东西长期探索的结果。
36氪:模型能力的下一个飞跃会在哪里?
张鹏:我认为是体现智能。 正如一个哲学命题所讨论的:身体和灵魂能分开吗? 我倾向于认为,智力离不开物质世界,智力的诞生与身体的物理条件有关。
36氪:Dev Day大家都提到大模型无法大规模商用,C端通用应用发展缓慢的一个重要原因是成本太高。 例如,一般的C端应用一天可能会消耗数亿个Token。 从模型厂家的角度来看,如何解决这个问题呢?
张鹏:这个问题在生态之外是无法解决的。 例如,对于硬件制造商来说,他们需要生产更高效的芯片; 对于我们这样的模型厂商来说,我们需要不断降低模型的推理成本; 对于应用厂商来说,我们需要想办法让用户承担更多的成本,提高支付意愿。
成本问题无法回避,整个产业链都需要挤水。
36氪:今天智浦AI分享了很多客户案例。 但模式在中国商业化的难点是什么?
张鹏:中国市场有自己的特点。 比如SaaS在国外可以生存得很好,但在国内却很难。 MaaS(模型服务)本质上是SaaS,但我们很难自己改变环境。 我们只能想想如何打破这种局面。
所以我们很早就把商业化计划考虑的非常清楚。 比如跟前期做知识工程的基因有关,我们觉得可能更容易把模型商业化,做To B。
但中国B端客户的需求其实非常多样化,而且非常不一致。 如何满足客户需求而不陷入工程泥潭? 我认为有必要放大泛中国能力强、通用性高的AI模型的优势。
这里有很多需要注意的地方。 首先,部署策略要多元化。 比如我们有三种解决方案:API、云私有化、本地私有化。 基本上每个感兴趣的客户都可以找到对应的部署方案。 其次,我们会慢慢教育用户,说服他们慢慢从最重、最麻烦的定制方式转向更标准化、平台化的产品购买方式。
从去年来看,我们MaaS的整体效果应该说还是不错的。 我们有超过 2,000 名客户。 从纯粹数量角度来看,分布较为健康,呈现金字塔结构(少数高支付能力、高忠诚度的客户位于塔顶)。
智普AI部分客户
36氪:智浦AI会出海吗?
张鹏:这个问题我们内部也在讨论。 我们从来没有把自己局限于国内市场,但我不知道如何定义出海。 赚了美元算出国吗,还是在国外开公司算出国? 所以对于出国的定义和形式,我们争论了很长时间。
事实上,就学术全球知名度而言,我们已经“出海”了,但这和商业出海不一样。 我认为我们应该一步一步地去做。 当前最重要的两件事是:一是核心技术的突破;二是核心技术的突破。 其次,在业务路径上探索更长远、更有规划的MaaS实施路径。
目前的商业化情况已经初步证明我们可以在MaaS上取得成功,但是如何引导这条道路向更健康或更长远的方向发展呢? 今天有人提到平台化,有人提到操作系统,但还没有定论。
扫描二维码加入“智用AI交流群”
欢迎交流
欢迎交流
欢迎交流