开发者现可使用全球最快的AI芯片
原文英文,约1300词,阅读约需5分钟。发表于: 。AI computing is still at the dial-up level. Getting an answer from an LLM can be slow. But now Cerebras The post Developers Can Now Access the World’s Fastest AI Chip appeared first on The New Stack.
芯片制造商Cerebras推出了名为Cerebras Inference的AI云服务,声称比常规云提供商快10到20倍。该服务提供了世界上最大最快的AI芯片,性能超过了Nvidia的GPU。开发者可以使用免费的API密钥在平台上构建AI应用程序,但自定义选项有限。该服务提供了Llama 3.1等模型以及未来具有数十亿参数的模型。Cerebras的芯片比Nvidia的GPU要大得多,从而实现更快的性能。该公司还与G42合作,在美国建立AI数据中心。