新物网

当前位置:首页 > 财商

财商

智谱清言不敌ChatGPT,商业化仍难解道阻且长

时间:2024-05-18 12:09:14 小新新
作者|张宇编辑|杨博丞题图|文心一格“追赶OpenAI”“对标Open AI是智谱AI成立以来的目标”,是智谱AI CEO张鹏在对外分享时屡次提及的几句话,但现

作者|张宇

编辑|杨博丞

题图|文心一格

“追赶OpenAI”“对标Open AI是智谱AI成立以来的目标”,是智谱AI CEO张鹏在对外分享时屡次提及的几句话,但现在,智谱AI追赶OpenAI的困难程度增加了不少。

继OpenAI在春季发布会上发布全新旗舰语言模型GPT-4o之后,谷歌也在I/O开发者大会上推出了一系列基于Gemini的“AI超级全家桶”。尽管智谱AI被认为是最有可能成为“中国OpenAI”的大模型企业之一,但随着国内外“百模大战”愈演愈烈,智谱AI面对的形势难称喜人。

以智谱AI旗下生成式AI助手智谱清言为例,这是一款基于ChatGLM2人工智能语言模型开发而来的大模型产品,通过万亿字符的文本与代码预训练,结合有监督微调技术,具备通用问答、多轮对话、创意写作、代码 生成、虚拟对话、AI画图、文档和图片解读等能力。

但与OpenAI基于GPT-4人工智能语言模型开发的ChatGPT相比,智谱清言仍然处于劣势地位。一个最直接的差距在于,ChatGLM2在训练数据和多样性、跨语言能力、模型规模和参数和推理能力等方面均不如GPT-4。

为了弥补与OpenAI之间的差距,智谱AI在2024年1月举行的首届技术开放日(Zhipu DevDay)上发布了新一代语言模型GLM-4,虽然GLM-4整体性能相比上一代大幅提升60%,号称“比肩GPT-4”,但实际上也只是达到GPT-4约90%左右的水平。

值得一提的是,OpenAI新发布的GPT-4o在处理速度上提升了200%,基于GPT-4o,OpenAI对ChatGPT进行了更新升级,增加了更强的语音和视觉功能,这让ChatGPT对现实的感知能力大大增强——GPT-4o可以在短至0.23秒的时间内响应音频输入,音频响应速度已经达到与人类相似的水平。

显然,追赶GPT-4已然是智谱AI当下最迫切的任务,其能否训练出真正比肩GPT-4的语言模型,对于商业化和生态的进阶尤为关键。

01. 与OpenAI仍存较大差距 

智谱AI成立于2019年6月,由清华大学知识工程实验室(KEG)技术成果转化而来,是目前国内唯一全内资、全自研的大模型企业,早在2020年开始GLM预训练架构的研发,并训练了100亿参数模型GLM-10B;2022年合作研发了1300亿级超大规模预训练通用模型GLM-130B;2023年,智谱AI推出千亿开源基座对话模型GLM系列,并在2024年1月推出GLM-4。

由于智谱AI入局较早且直接对标OpenAI,也因此成为资本机构眼中的宠儿。2023年7月至9月,智谱AI共拿到了5轮融资,融资金额超过25亿元,主要投资机构包括中关村自主创新基金、美团战略投资部、蚂蚁集团、阿里巴巴、腾讯投资、高瓴资本、红杉资本等等,目前估值更是达到了200亿元,跻身国内AI领域“独角兽”企业。

不过,目前智谱AI与OpenAI仍有较大差距。

从技术路线来看,OpenAI更加注重通用性、可移植性和可扩展性,其GPT系列语言模型可以在多个场景下应用,并且具有高度的可定制性。相比之下,智谱AI的技术路线是“大模型+小模型”,通过大模型的预训练和微调,来适应不同场景和任务的需求。这种技术路线可以提高模型的泛化能力和应用范围,但也存在着模型复杂度高、计算量大、训练时间长等问题。

在模型规模方面,OpenAI的GPT系列语言模型规模较大,可以处理大量的自然语言数据,从而获得更好的模型性能,而智谱AI的模型规模可能较小,处理数据的能力有限,这可能会影响其模型性能和泛化能力;在数据资源方面,OpenAI拥有大量的自然语言数据资源,可以用来训练和优化其模型,而智谱AI的数据资源可能相对较少,导致其模型训练的效果和性能受到限制。

两者而定直接差距体现在用户数上。2022年11月,OpenAI旗下ChatGPT仅上线五天用户数便突破百万,2023年1月,其月活用户数突破了1亿,成为历史上用户数增长速度最快的消费级应用。相比之下,根据机构测算,截至2023年11月,智谱AI旗下智谱清言的日活用户数区间仅为10万至40万。

值得一提的是,智谱清言甚至不是百度旗下文心一言的对手,截至2023年11月,文心一言的日活用户数约为80万左右,而截至2024年4月,文心一言的用户数已经突破了2亿。

张鹏也坦言,和国外大模型相比,国内的大模型发展起步晚了一些,加上高性能算力限制、数据质量的差距等,国内大模型在规模和核心能力上都与世界先进水平存在一定差距,这样的差距大约在一年左右。

02. 智谱AI商业化路漫漫

大模型商业化如何落地,是摆在包括智谱AI在内的所有大模型企业面前的巨大挑战。

智谱AI是国内最早推进商业化的大模型企业之一,并且率先提出了“模型即服务(MaaS)”的落地路径,目前智谱AI探索出四种商业模式:一是轻量级的,将大模型封装成开放平台,提供API(应用程序接口)给开发者、企业等进行调用,按照调用量进行付费,这种方式非常简单、成熟,与国外并没有太大差别;二是面向一些中大型企业对于数据安全保障的需求,智谱AI提供云端私有化部署的方案,基于云端算力帮用户开辟专门的模型专区;三是完全私有化的部署,在企业自己的硬件及算力平台上提供大模型的基座能力,满足企业开发相关应用及业务发展的需求;四是一种软硬件结合的方案,将大模型与国产化信创硬件适配绑定,可以免除在客户环境中进行部署和实施调试的过程,通过软硬件一体化进行销售和部署。

张鹏认为,B端的付费意愿比C端好很多,尤其是行业头部企业,在大模型方面普遍投入多、动作快。所以智谱AI从一开始就瞄准B端。截至2023年,智谱AI已拥有超2000家生态合作伙伴、超1000个大模型规模化应用,另有200多家企业跟智谱AI进行了深度共创,覆盖传媒、咨询、消费、金融、新能源、互联网、智能办公等多个领域的多个头部企业。张鹏透露,2023年下半年智谱AI签单客户约几百家,2023年整体有亿级签单额。

然而智谱AI还未实现商业化,大模型行业便打起了“价格战”。

5月15日,字节跳动宣布,豆包主力模型(豆包通用模型pro)在企业市场的定价为0.0008元/千Tokens,而市面上同规格模型的定价一般为0.12元/千Tokens,是豆包模型价格的150倍。5月14日,OpenAI在春季发布会上宣布,GPT-4o的API价格下降50%。

在此之前,法国AI企业Mistral AI发布了最新大模型Mistral Large,并推出对标ChatGPT的首个聊天机器人Le Chat。在定价上,Mistral Large的输入、输出价格比GPT-4 Turbo便宜约20%;幻方量化旗下AI公司DeepSeek发布的全新第二代MoE大模型DeepSeek-V2的API定价为每百万Tokens输入1元、输出2元(32K上下文),价格为GPT-4 Turbo的近百分之一。

面对“价格战”,智谱AI也宣布入门级产品GLM-3 Turbo模型调用价格从5元/百万Tokens降至1元/百万Tokens,降幅高达80%。

值得一提的是,大模型定价的持续走低有望带来更快的商业化落地,但同时“价格战”往往意味着企业需要在价格上做出让步,对于智谱AI而言,其自身盈利能力有限,如果再进行“价格战”,或将导致利润进一步下降,实现盈利也将变得更为艰巨。 

张鹏也坦言,2024年智谱AI所面临的挑战是非常艰巨的,一方面,2024年OpenAI在超级认知、超级对齐上的技术会实现新的突破,这要求智谱AI不断迭代技术,跟进世界领先脚步;另一方面,2024年大模型会迎来商业化落地潮,智谱AI的商业化竞争压力也会加大。

对于智谱AI而言,目前商业化路径已经较为清晰,但能否走通大模型的商业化之路,关键不仅在于商业模式的探索尝试,更在于解决大模型发展的底层问题。

03. 抱团取暖 

开源开放也是智谱AI的一大特色,智谱AI希望营造繁荣的社区和生态,为了更进一步促进大模型开源社区的发展。

张鹏曾表示,智谱AI是国内少数能对标OpenAI的头部技术企业。公司希望与产业链上下游的合作伙伴、开发者社区、学术界等AI领域所有的参与者一同努力,为中国AI新未来贡献自己的努力。

2024年,智谱AI将发起开源开放的大模型开源基金,该计划包括三个“1000”:智谱AI将为大模型开源社区提供1000张计算卡,助力开源开发;提供1000万元的现金用来支持与大模型相关的开源项目;为优秀的开源开发者提供1000亿免费API tokens。张鹏表示,大模型开源基金的目的在于推动大模型研发的大进展,促进大模型整个开源生态的大繁荣。

面对全球大模型创业者,智谱AI将升级“Z计划”,联合生态伙伴发起总额10亿元的大模型创业基金用于支持大模型原始创新,覆盖大模型算法、底层算子、芯片优化、行业大模型和超级应用等方向。

此外,智谱AI还入股众多AI产业链企业,截至目前,智谱AI以产业型投资方式,已投资、入股超过10家初创公司,单笔参投规模在百万元级别,其中包括AI模型层企业“聆心智能”,AI模型层企业“面壁智能”,智能法律服务产品提供商“幂律智能”,企业大模型服务平台“智异璧”,软件和信息技术服务商“数道智算”,生成式AI应用提供商“生数科技”等等。

对于智谱AI的未来,张鹏十分乐观,“2024年,大模型市场将从野蛮生长回归冷静,对于大模型的投资与炒作将会告一段落,行业焦点也将从模型本身转向寻找应用。不过这并不代表大模型的技术演进速度会下降,向上探索的天花板还远远没到。”