新物网

当前位置:首页 > 科技

科技

2023 年赚到 16 亿美元后,OpenAI 还会继续流行吗?

时间:2024-01-12 12:00:40
其2022年的年收入仅为2800万美元,甚至不及今年一周所带来的收入。在去年早些时候,CEO奥特曼认为在2023年的收入仅为2亿美元左右,而在9月这一数字增加到10亿,随后又上升到了13亿,如今的16亿美元年收入对比最开始的2亿预期早已翻了三番。

2023 年赚到 16 亿美元后,OpenAI 还会继续流行吗?

近日,外媒报道称,由于人工智能“明星产品”的快速增长,年营收已突破16亿美元,刚刚超过CEO奥特曼10月份表示的13亿美元年营收。 两个月。

如果看数字对比的话,每年的收入增长就更加惊人了。 它2022年的年收入只有2800万美元,连今年一周的收入都还不够。

更重要的是,随着服务规模的扩大,首届开发者大会上就宣布了大幅降价的消息,这意味着进一步降价将带来更多的用户和更大的发展空间。 同时,开发者大会还透露了更多有关GPT Store的消息,很多人认为这将成为大机型的“时刻”。

作为目前大模型赛道的领军者,他的一举一动都可以成为整个AI赛道的领军者和借鉴。 因此,通过分析插件应用商店GPT Store上线时的盈利模式,或许可以为国内外同类产品的商业化和未来发展提供参考洞察维度。

01 赚钱方式主要有三种:用户订阅、开发者付费和微软分成

自2023年初火爆以来,随着产品的不断迭代以及GPT-4和GPT-4 Turbo的相继推出,其公司的商业模式也得到了快速发展。 经过2023年的探索和实践,目前的商业模式可以分为三个部分:

第一部分面向广大用户,也是个人消费者最容易接触到的会员订阅服务。 从2023年初开始,将推出名为Plus的会员订阅服务。 用户每月可以支付20美元来获得更快的响应服务,同时可以优先使用GPT-4等更强大的模型。

付费用户数量方面,目前还没有透露明确的数字。 不过,根据美国风险投资公司A16Z的数据,仅截至去年7月,Plus就有约200万付费用户。 另外,去年11月,由于用户激增,新付费用户注册暂时关闭,因此可以推测付费用户数量可能在数百万。

此外,即将推出的GPT Store也有望对会员订阅服务产生更多影响。 在去年 11 月的首届开发者大会上,CEO 表示,GPT Store 将收录最受欢迎的 GPT,同时还将开展创作者共享计划,这意味着 GPT Store 的出现将进一步刺激用户数量和用户数量。付费订阅的规模。 增加。

第二部分,也是核心收入,是针对开发者的API接口调用收费模式。 在该模式下,开发者可以调用GPT系列大模型、DallE文本生成图片模型、语音识别模型等功能,需要按照流量计费付费。

同样在首届开发者大会上,API接口调用的收费模型也带来了重大升级,不仅带来了更新的GPT-4 Turbo模型,而且价格也大幅下调。 在本次会议上,CEO 表示,GPT-4 Turbo的输入成本是GPT-4的三分之一,而输出成本则降低到二分之一,大大降低了用户的使用成本。

同时,GPT-4 Turbo相比GPT-4有几大升级,包括更长的上下文长度、更强的控制力、模型知识升级、多模态等。这种“增量降价”的行为将吸引更多人开发者和公司将GPT技术应用到他们的产品和服务中,然后成为更多的客户,围绕它逐步建立新的商业生态系统。

商业化收入的第三部分来自于与微软的合作。 微软投资数十亿美元成为最大投资者后,与微软的各种产品展开了密切合作。 Azure作为全球最大的云之一,从去年初开始面向企业客户推出Azure。 客户通过Azure云模型进行的每笔付款都可以获得相应的份额。

据了解,宜家、沃尔沃、可口可乐等公司都在通过微软的Azure云获取接口服务。 这意味着,凭借微软与众多大企业的合作关系,它可以更轻松地获得这些大企业的合作业务和收入分成。

值得一提的是,上述商业化的成功远远超出了管理层的预期,公司2023年的营收预期也经历了数次向上修正。去年早些时候,CEO 认为2023年的营收仅为2亿美元左右。 9月份,这一数字增至10亿,随后增至13亿。 如今的年营收为 16 亿美元,比原来预期的 2 亿增长了两倍。

从这个增速来看,再加上接口服务的“大优惠”,GPT的用户数和覆盖率很可能在2024年达到更高的水平。也正是因为这些原因,目前在互联网领域具有优势的公司产品技术和商业化,制定了2024年年收入达到50亿美元的新目标。

02 硬件、运营、人工成本“三高”,员工薪资超2亿

然而,在年化营收如火箭般增长的同时,作为一家走在人工智能前沿的科技公司,其科研投入和支出也很高,堪称“吃金兽”。

从其业务运营模式来看,为了支撑其大机型产品的竞争力,其费用主要分为三部分:

一是大模型开发过程中的硬件投入和培训成本。 作为计算机科学的前沿成果,大型模型自然离不开计算机、芯片等计算硬件。 微软将其 10 亿美元投资中的大部分用于人工智能超级计算机和芯片,随后又追加了超过 100 亿美元的投资。 。 据微软高管介绍,为了提供足够的计算能力,建造的超级计算机配备了数万个,总共在60多个数据中心部署了数十万个 GPU来提供协助。

除了硬件成本之外,开发过程中训练大型模型的成本也非常高。 根据国盛证券去年2月发布的《需要多少算力》报告,预计训练一次GPT-3的成本约为140万美元。 对于较大的LLM模型,培训成本在200万美元至1200万美元之间。 之间。 需要指出的是,这里所说的是GPT-3的单次训练成本。 后期数据量更大的模型如GPT-3.5、GPT-4的训练成本只会更多,不会更少。

二是日常运维成本。 外媒印度对去年的日常运营成本进行了预估。 据推测,维持正常运营每天需要花费约70万美元。 而且,GPT火灾后,访问量激增将直接导致日常运营成本翻倍。

三是劳动力成本高。 IT行业是智力密集型行业,工程师的平均薪资较高,尤其是在其所在的旧金山。 此前有报道称,由于其员工中不乏机器学习领域的大咖,在公司只有300多名员工的情况下,整个公司的薪资成本就超过2亿美元。

由于谷歌、Meta等巨头也在大模型行业奋起直追,为了防止员工流失,有必要再次加薪以留住员工。

另外,需要注意的是,上述各种收支情况基本处于AIGC商业化的第一阶段,即早期采用者阶段。 在《AIGC的未来已来到通用人工智能时代》一书中,作者将AIGC的商业化分为三个阶段,分别是:感知影响-早期采用阶段、认知理解-辅助阶段、新生态链-原始阶段。

从目前主流的聊天机器人和文本生成图片、视频等多媒体产品来看,AIGC还处于通过图片、视频满足用户尝鲜需求的第一阶段。 大多数人之所以追求人工智能,很简单,因为它是一个以前从未出现过的新事物,他们需要从使用它的体验中满足自己的好奇心。

如何让AIGC超越简单的辅助,成为虚实融合的重要载体,甚至进一步完成自主创作、原创内容等任务,已经成为其他公司未来的目标。 毕竟,当用户对AIGC越来越熟悉,失去尝试新事物的动力时,用户和企业自然会对人工智能的生产力提出更高的要求。 如果到时候还没有产生满意的产品升级,用户的付费意愿肯定会大大降低。

03 年收入 16 亿美元的产品是什么?

当我们分析年收入目标从2亿美元跃升至16亿美元时,他们更多地不是在卖产品,而是在卖人们对人工智能技术的早期体验和未来想象。

然而,在早期采用者过去之后,只有当这些新技术在更多的实践中展现出它们的价值时,它们才能从技术噱头走向与实践结合的商业化新阶段。 否则,就会像机器人领域的波士顿动力一样。 虽然其产品性能走在世界前列,但由于现实中应用场景并不多,其公司几乎一直在亏损、被出售。

2023年经历了一整年的兴奋之后,生成式AI行业其实有两种声音:未来会“凉”,还是会继续蓬勃发展。

不用说,认为热潮会继续流行的人,认为会降温的人主要集中在各国AI限制法案的出台、AI模型训练内容侵权引发的争议、许多公司无法享受人工智能工具带来的好处。 由于其成本和风险,这些客户将退出AI领域。 整个行业也将经历一轮整合,淘汰一些参与者。 当然,这里所说的降温只是相对于2023年的炎热而言,AI行业的“降温”更像是对正常发展区间的回调。

尽管目前硅谷巨头都非常看好AI的发展,但人工智能发展史上曾经历过3次“AI冬天”。 无论多么宏伟的技术愿景,也可能因为种种现实限制而落空。 而把这个原则应用到自己身上,就意味着,如果你想在未来继续走红,除了新鲜感之外,你还必须有能力清晰地证明自己的价值。

本文来自微信公众号,作者:36氪经授权发布。