Skip to content
毫河风报
菜单
  • 首页
  • 关于我们
  • 联系我们
  • 播记
 

Cerebras Systems 推出 AI 推理服务,速度比 Nvidia 快 20 倍!

2024-08-28

2024 年 8 月 28 日,Cerebras Systems 宣布推出 AI 推理服务。Cerebras Inference 服务能够以每秒 1,850 个令牌的速度处理 Llama 3.1 8B 模型,并以每秒 446 个令牌的速度处理 Llama 3.1 70B 模型。该服务的定价为 Llama 3.1 8B 模型每百万令牌 0.1 美元,Llama 3.1 70B 模型每百万令牌 0.6 美元。

Cerebras Inference 服务的核心是其定制的 5nm AI 芯片 WSE-3,这是一种晶圆级设计。WSE-3 芯片的总面积超过 Nvidia H100 的 50 倍,拥有 900,000 个核心和 44GB 的片上内存(SRAM)。这种设计使得 Cerebras 能够提供推理速度和效率。

与 Nvidia 的 GPU 相比,Cerebras Inference 在速度和成本上具有优势。根据 Cerebras 的说法,其推理服务比使用 Nvidia 最强大 GPU 的类似云推理服务快多达 20 倍。Cerebras 为开源的 Llama 3.1 8B 模型提供每秒 1,800 个令牌的处理速度,而为 Llama 3.1 70B 模型提供每秒 450 个令牌的处理速度。

人工分析公司(Artificial Analysis Inc.)的联合创始人兼首席执行官 Micah Hill-Smith 表示,他的团队已经验证了在 Cerebras Inference 上运行的 Llama 3.1 8B 和 70B 的 “质量评估结果” 与 Meta 官方版本的原生 16 位精度相符。

除了推理服务外,Cerebras 还宣布了一系列战略合作伙伴关系,以便为客户提供加速 AI 开发所需的所有专业工具。其合作伙伴包括 LangChain、LlamaIndex、Docker Inc.、Weights & Biases Inc. 和 AgentOps Inc. 等公司。

AI 日报

查看全部日报

  • AI 技术在医疗领域的突破性应用:从诊断到治疗的全新变革
  • AI 代理战场新核武!OpenAI 发布 o3 模型:比肩人类决策,媲美专业审核
  • 软银 5000 亿美元 AI「星门」陷融资困境,孙正义:短期波动不足为惧
  • 贝索斯加持 AI 搜索新星估值 140 亿!3 年超谷歌 7 年成绩
  • 苹果重磅爆料:秘密研发两大“杀手锏”芯片,剑指智能眼镜与 AI 服务器!

©2025 毫河风报 沪ICP备18012441号-5