12家AI芯片初创公司瞄准大型模型业务
12家AI芯片初创公司瞄准大型模型业务
Core East West 1 月 10 日报道称,当谈到生成式 AI 热潮的受益者时,没有人可以忽视 。 据 The 统计,目前北美至少有 12 家 AI 芯片初创公司想要分一杯英伟达独家生成式 AI 算力红利。
▲12家瞄准大模型的AI芯片公司(Core Tools根据表格整理整理)
这些初创公司成立时间不超过8年,其中5家成立于2022年,其中4家创始成员拥有谷歌背景。 累计融资金额最高的一家,已经凭借晶圆级芯片名声大噪; 这五家成立时间较短的初创公司的创始成员有着不同的背景。
总体而言,这12家北美AI芯片初创公司瞄准了生成式AI算力这块蛋糕,有的瞄准训练,有的专注推理,还有的更进一步,将产品瞄准特定类型的AI模型。 例如大多数大型模型的基础。
这是一场高风险的游戏:这些关键选择将决定初创公司的生存或失败。
推理一直是更受欢迎的选择。 因为许多客户使用或微调已经训练好的模型,而不是从头开始构建新模型。 高昂的推理成本给大型模型和生成式人工智能公司(包括 AI)带来了压力。
d-、.ai、SiMa.ai、Groq 正在专门为某些模型架构构建芯片,例如为 和 的大型语言模型提供支持的芯片。 这些公司认为,专用芯片比 、、Rain AI 等公司的通用芯片更快、更高效。
但芯片开发充满挑战和未知。 这些初创公司的大部分产品最早也要到今年年底才能投入商业使用。 到那时,这可能就是旧闻了。 一些开发人员已经在测试 Mamba 等新模型架构。
1、
成立于2016年,其核心产品是第二代晶圆级引擎WSE-2,将85万个核心封装到单个处理器上,并采用40GB超高速片上SRAM和互连技术,比传统集群快几个数量级。 官网称WSE-2为“地球上最快的AI芯片”。
创始成员中,CEO和CTO Gary分别担任高带宽微服务器先驱的CEO和CTO,首席架构师James担任首席软件架构师。 2012年被AMD收购。
多位联合创始人、前CTO、AMD前CTO兼总裁、前CEO等行业巨头都是其投资者。
2、
成立于2017年,创始团队来自麻省理工学院。 其研发的光电混合计算芯片可以满足训练大型语言模型等任务的计算需求,并降低数据中心功耗和成本。
2023年11月,宣布获得谷歌风投等投资者1.55亿美元融资。 此次融资是其5月份C轮融资的延续。 截至目前,累计融资金额已超过4.2亿美元,估值达到12亿美元。
3.
该公司成立于2016年,由AMD前嵌入式工程师Ivan Hamer、AMD前集成电路设计总监Bajic和AMD前固件设计工程师Milos创立。
硅谷顶级芯片架构师 Jim 担任 CEO。 该公司累计融资金额已达3.85亿美元,投资者包括三星和现代。 其估值已达到约10亿美元,成为独角兽公司之一。
这家 AI 芯片初创公司使用 RISC-V 和技术来创建可扩展、节能的 AI 芯片。 它目前有两个机器学习处理器和黑洞。 其更先进的3nm AI芯片预计将于今年推出。
4.格罗克
Groq 于 2016 年底由几位前 TPU 开发团队成员创立。 基于软件定义硬件的思想,他们设计了张量流处理器TSP架构,以实现高性能、低延迟的AI加速。
这家初创公司主要开发云端AI推理芯片,已累计融资3.67亿美元。 去年,Groq LPU 加速器在 Meta Llama 2 70B 大语言模型上实现了每秒超过 280 个令牌的推理性能。
5.司马爱
SiMa.ai成立于2018年,创始人兼CEO曾在全球最大的FPGA芯片供应商工作近20年。
这家初创公司于2019年推出了首款AI芯片MLSoC,主要用于计算机视觉领域的推理计算。 2023年6月,司马人工智能表示,其第一代边缘AI芯片已开始量产,并与制造、汽车、航空等行业的50多家客户合作。
6.d-
d-成立于2019年,主要研发内存计算AI芯片。 官网宣称打造了“全球最高效的大规模AI推理平台”,其运行Llama 2 13B大型语言模型的大规模推理速度“翻倍”H100和A100。
其最新的数字内存计算芯片II采用台积电6nm工艺和D2D互连解决方案,为生成式AI应用推理任务提供支持。
该初创公司已筹集超过 1.6 亿美元,投资者包括微软和 SK 海力士。 微软已承诺今年对其芯片进行自用评估。 d- 预计两年内收入将达到7000万美元至7500万美元,并实现收支平衡。
7. 人工智能
AI是这12家初创公司中唯一一家专注于软件的公司。 它成立于 2022 年,致力于构建模块化、可组合和分层的 AI 基础设施,包括构建编译器、运行时环境等,并开发 CUDA 替代品。
该初创公司于 2023 年 8 月获得 1 亿美元融资,投资者包括 。 其首席执行官是 LLVM 之父 Chris,曾在苹果领导 Swift 编程语言的开发,后来在谷歌与首席产品官 Tim Davis 一起工作,负责监督 AI 产品开发。
2023年5月,AI召开首次发布会,推出高效推理引擎和Mojo编程语言。 其高效的推理引擎可以轻松地将主流深度学习框架上的模型快速部署到服务器或边缘设备上。 Mojo编程语言不需要C++和CUDA运行环境,可以直接高效地部署类似语言的代码在芯片上运行。
8. 雨人工智能
Rain AI成立于2017年,旨在解决使用传统GPU训练和运行机器学习的高成本问题。 CEO Sam 和百度风投投资了这家公司。
其AI芯片的设计理念受到大脑的启发。 早在2018年,我就看好Rain走类脑芯片路线,并以个人名义领投了Rain AI的种子轮融资。 次年,双方签署了一份不具约束力的协议,计划斥资 5100 万美元购买 Rain AI 的芯片,但目前尚未采取任何后续措施。
Rain AI将于2021年推出一款工作原型芯片,这是一款可训练的端到端模拟AI芯片。最近的AI芯片产品采用了数字内存计算技术。 截至目前,其累计融资金额约为4000万美元。
9.MatX
MatX 成立于 2022 年,专注于为大型语言模型开发更快的专用芯片。 它旨在为通用人工智能(AGI)设计一个比 GPU 等硬件更快、更具成本效益的计算平台。
其CEO Pope参与构建了的PaLM模型,并曾编写过最快的推理软件; CTO Mike曾参与的TPU工作。
官网显示,MatX 已获得一些风险投资机构以及领先的大型语言模型和 AI 研究人员的支持,但尚未公布产品或融资金额。
10..ai
.ai 成立于 2022 年 10 月,两位创始人 CEO Gavin 和 CTO Chris Zhu 都在本科期间从哈佛休学,想要开发一款可以加速大型语言模型的 AI 芯片“搜狐”。
通过在硬件层面整合架构并配备144GB HBM3e显存,搜狐芯片的推理性能将达到 H100的10倍,单价将实现H100吞吐量性能的140倍。 该芯片预计将于今年交付。
2023年6月,.ai宣布获得536万美元种子轮融资,投资方包括Ebay前首席执行官Devin Wenig。 融资后估值达到3400万美元。
11.
2023年最后一个月,AI芯片初创公司宣布获得1410万美元天使轮融资。 这家初创公司成立于2022年,创始成员CEO和CTO均来自谷歌量子AI团队。 被认为是量子深度学习领域的先驱。
声称正在为物理世界中的生成人工智能奠定终极基础,利用热力学和信息的第一原理来构建人工智能超级计算机。
目前,能够运行大型语言模型的AI芯片正在研发中。 其芯片的核心部件是一种被称为热力学逻辑门的微型器件,利用热力学系统的能量转换和信息处理功能,将热能等能量转换为计算能力。
12. 小公司
Tiny Corp成立于2022年5月,创始人兼CEO是业内知名黑客“ Boy”Hotz。 他也是自动驾驶初创公司 Comma AI 的创始人。 2023年5月,Tiny Corp获得510万美元融资。
Hotz认为,创办AI芯片公司的唯一途径是从软件入手,该初创公司希望帮助开发人员加快训练和运行机器学习模型的过程。 它的第一个项目是为 AMD 芯片构建框架、运行时和驱动程序。 短期目标是使用该框架来支持AMD。
本文来自微信公众号“”(ID:),作者:ZeR0,编辑:莫莹,36氪经授权发布。