💡
原文英文,约1300词,阅读约需5分钟。
📝
内容提要
芯片制造商Cerebras推出了名为Cerebras Inference的AI云服务,声称比常规云提供商快10到20倍。该服务提供了世界上最大最快的AI芯片,性能超过了Nvidia的GPU。开发者可以使用免费的API密钥在平台上构建AI应用程序,但自定义选项有限。该服务提供了Llama 3.1等模型以及未来具有数十亿参数的模型。Cerebras的芯片比Nvidia的GPU要大得多,从而实现更快的性能。该公司还与G42合作,在美国建立AI数据中心。
🎯
关键要点
- Cerebras推出了名为Cerebras Inference的AI云服务,声称比常规云提供商快10到20倍。
- 该服务提供世界上最大最快的AI芯片,性能超过Nvidia的GPU。
- Cerebras的WSE-3 AI芯片面积约为46,225mm²,是Nvidia H100 GPU的56倍。
- 开发者可以使用免费的API密钥在平台上构建AI应用程序,但自定义选项有限。
- 可用模型包括Llama 3.1及其8亿和70亿参数的变体,未来将推出更多参数的模型。
- Cerebras芯片的响应时间为每秒1,842个标记,比微软Azure快20倍。
- 开发者可以轻松将聊天机器人或其他AI应用程序迁移到Cerebras的推理云服务。
- Cerebras的推理服务定价较高,但API是免费的,提供免费和付费层。
- Cerebras的AI速度为多模型工作流提供了可能性,开发者可以将其LLM推理与其他模型串联。
- Cerebras的芯片在生产中将整个芯片放在一个晶圆上,解决了带宽问题。
- 尽管Cerebras硬件性能优越,但缺乏成熟的软件生态系统,开发者的支持至关重要。
- Cerebras正在与G42合作,在美国建立AI数据中心。
➡️