据 The Information 报道,Cerebras Systems,这家位于美国加州的半导体公司,近日秘密提交了 IPO 申请,正式进军资本市场。这家初创公司还通知其注册地特拉华州,它正在创建优先股,其定价较上一轮私人融资有很大折扣。
Cerebras 以其全球最大的 AI 芯片 Wafer Scale Engine(WSE)而闻名,最新的第三代 WSE-3 芯片拥有高达 4 万亿个晶体管,能够在一天内完成 Llama 700 亿参数的训练,在 12 月的一篇博客文章中描述最近达到了 “现金流收支平衡”,但没有更详细的说明。
据 Prime Unicorn Index 分享的一份文件显示,6 月初,Cerebras 授权以 14.66 美元的股价发行约 2700 万股新股。这大大低于其 2021 年 F 轮融资的 27.74 美元股价,该轮融资的估值超过 40 亿美元。新股授权表明,Cerebras 的估值约为 25 亿美元。根据 Caplight 的数据,二级市场投资者对 Cerebras 的估值在 42 亿至 50 亿美元之间。
Cerebras 此前曾从 Coatue Management、Benchmark 和阿布扎比科技集团 G42 等投资者那里筹集了 7.2 亿美元。据彭博社 4 月份报道,Cerebras 已聘请花旗集团担任其首次公开募股的牵头银行。
尽管在芯片性能上具有显著优势,Cerebras 的市场规模仍远小于行业巨头英伟达。未来,如何扩大应用场景和市场接受度,将是 Cerebras 面临的主要挑战。
创始团队
Cerebras 的创始团队由经验丰富的科技行业专家组成:
- Andrew Feldman(CEO):前 SeaMicro 创始人和 CEO。
- Gary Lauterbach(联合创始人):前 SeaMicro 联合创始人。
- Michael James(Chief Architect):拥有多年芯片设计和硬件架构经验。
- Sean Lie(CTO):拥有丰富的硬件和软件设计经验。
- Jean-Philippe Fricker(VP Engineering):曾在 Google 和 SeaMicro 担任高级工程管理职务。
融资历史
Cerebras 自成立以来,已经完成了多轮融资,累计融资金额超过 7.2 亿美元。以下是主要的融资事件:
- 2016 年,A 轮融资: 2700 万美元,由 Benchmark、Foundation Capital 和 Eclipse Ventures 领投,估值不详。
- 2016 年,B 轮融资: 由 Coatue Management 领投,估值不详。
- 2017 年,C 轮融资: 由 VY Capital 领投,估值不详。
- 2018 年,D 轮融资: 8800 万美元,估值不详,投资方包括 Altimeter、VY Capital、Coatue、Foundation Capital、Benchmark 和 Eclipse。
- 2019 年,E 轮融资: 超过 2.7 亿美元,估值为 24 亿美元,投资方包括 Coatue Management 等。
- 2021 年,F 轮融资: 2.5 亿美元,由 Alpha Wave Ventures、阿布扎比增长基金(ADG)和 G42 领导,使公司估值超过 40 亿美元。
Cerebras Systems 的业务内容
- Cerebras Wafer-Scale Engine (WSE)
Cerebras 的旗舰产品是 Wafer-Scale Engine (WSE),这是世界上最大的计算芯片。与传统的芯片不同,WSE 使用整个硅片来制造单一芯片,从而大大增加了计算能力和内存带宽。WSE-3 集成了 4 万亿个晶体管,拥有 90 万个 AI 核心,算力高达 125 PetaFLOPS。
主要特点包括:
- 巨大的规模:WSE 包含数万亿个晶体管和数百个核心,是传统 GPU 的多个数量级。
- 高带宽内存:通过大规模并行处理和高带宽内存访问,WSE 可以显著加速深度学习任务。
- 低延迟通信:芯片内部采用低延迟、高带宽的通信架构,减少数据传输瓶颈。
Cerebras Systems 团队认为,GPU(图形处理单元)并不是训练大型神经网络模型的最佳引擎。这主要是因为在使用 GPU 进行大规模模型训练时,开发者必须将模型分割成许多小部分,并将这些部分分布在数百甚至数千个 GPU 上运行。这一过程极为复杂,要求开发者重新编写模型代码,以确保其能够在大规模集群上高效工作。通常情况下,这种代码改写会导致代码行数从大约 600 行暴增至约 20000 行,不仅增加了开发难度,还大幅提升了调试和维护的复杂性。
Cerebras Systems 的核心目标就是解决这一问题。他们的解决方案是 Wafer-Scale Engine(WSE),与传统的 GPU 不同,WSE 不需要将模型分割成小部分,因为它本身拥有足够的计算能力和内存带宽来处理整个模型。这意味着开发者可以直接在 WSE 上运行大规模模型,而不需要进行复杂的模型分割和代码重写,从而大大简化了开发流程和提升了计算效率。
WSE-3 在功耗和性能上的改进同样令人印象深刻。与前代产品相比,WSE-3 在相同功耗下性能提高了一倍。这意味着在不增加能源消耗的情况下,用户可以获得更高效的计算能力。这种性能提升得益于 Cerebras 在芯片制造技术上的不断创新和优化。
实际应用案例方面,WSE-3 的强大性能使其能够在一天内完成 Llama 700 亿参数的训练。这一速度不仅大幅缩短了 AI 模型的训练时间,也为大规模 AI 应用提供了更高效的解决方案。
在制造工艺上,WSE-3 采用了台积电的 5 纳米技术。这一先进的制程技术使得 WSE-3 能够在有限的芯片面积内集成更多的晶体管,从而提升整体性能。相比之下,前两代产品 WSE-1 和 WSE-2 分别采用了 16 纳米和 7 纳米技术。随着制程技术的不断进步,WSE 芯片的性能也得到了显著提升。
2. Cerebras CS-2 系统
Cerebras CS-2 是基于 WSE 的完整计算系统,设计用于加速 AI 工作负载。CS-2 系统的主要优势包括:
- 极高的计算性能:能够处理大规模的神经网络模型训练和推理任务。
- 高效的能量利用:优化的能量使用效率使其在同等计算能力下比传统系统更节能。
- 易于集成:可以无缝集成到现有的数据中心和计算基础设施中。
3. 软件平台
Cerebras 提供一套完整的软件平台,以支持其硬件的高效运行,包括:
- Cerebras Software Stack (CSS):专为 WSE 设计的操作系统和编译器,优化深度学习模型的部署和执行。
- Cerebras Graph Compiler:能够将深度学习模型自动编译成适用于 WSE 架构的高效计算图。
- 支持常用框架:兼容主流的深度学习框架如 TensorFlow、PyTorch,使得用户可以方便地将现有模型迁移到 Cerebras 平台上。
业务优势
Cerebras Systems 在 AI 芯片市场中的定位非常明确,即专注于深度学习和大规模 AI 模型的训练。尽管在市场规模上远小于英伟达,但 Cerebras 凭借其技术优势和创新能力,逐渐在市场中占据一席之地。
综合来看,Cerebras 的优势在于:
- 统一架构: WSE 集成了大量计算核心,提供了巨大的计算能力和高带宽内存,使其能够在一个芯片上处理整个深度学习模型,无需分割模型。
- 简化开发: 由于不需要将模型分割并分布到多个 GPU 上,开发者可以使用更少的代码实现相同的功能,减少了代码复杂性和维护成本。
- 高效能: WSE 设计用于最大化计算效率和能量利用率,能够显著加速模型训练和推理过程。
- 扩展性: Cerebras 的 CS-2 系统可以轻松集成到现有的数据中心基础设施中,提供可扩展的高性能计算能力。
与英伟达相比,Cerebras 的市场策略更加专注于特定应用场景,尤其是需要处理海量数据和复杂模型的领域。通过不断提升芯片性能和优化功耗,Cerebras 在 AI 芯片市场中逐渐树立起自己的品牌形象。
尽管 WSE-3 在技术上具有显著优势,但 Cerebras 仍面临一些挑战:
- 市场竞争:英伟达等巨头在 AI 芯片市场占据主导地位,Cerebras 需要通过技术创新和市场推广来提升竞争力。
- 成本控制:高性能芯片的研发和生产成本较高,Cerebras 需要通过优化生产工艺和规模化生产来降低成本。
- 生态系统建设:建立完善的软件和硬件生态系统,使用户能够更方便地集成和使用 Cerebras 的芯片。
Cerebras 的主要客户包括美国阿贡国家实验室、劳伦斯利弗莫尔国家实验室和葛兰素史克等。这些客户不仅对 Cerebras 的技术表示认可,也为其在市场中的进一步扩展提供了支持。
此外,Cerebras 还与高通签订了一项联合开发协议,旨在将人工智能推理的价格和性能指标提高 10 倍。这一合作不仅有助于提升 Cerebras 的技术实力,也为其在市场中的竞争力提供了保障。
Cerebras 与其他科技公司和研究机构的合作关系也非常紧密。例如,与高通的联合开发协议旨在提升 AI 推理的性能和成本效益。此外,Cerebras 还与多家制药公司合作,利用其强大的计算能力加速药物研发。
通过这些合作关系,Cerebras 不仅能够不断提升自身技术实力,也为其在市场中的竞争力提供了保障。未来,随着更多合作项目的推进,Cerebras 有望在 AI 芯片市场中占据更大的份额。