芯片制造商Cerebras推出了名为Cerebras Inference的AI云服务,声称比常规云提供商快10到20倍。该服务提供了世界上最大最快的AI芯片,性能超过了Nvidia的GPU。开发者可以使用免费的API密钥在平台上构建AI应用程序,但自定义选项有限。该服务提供了Llama 3.1等模型以及未来具有数十亿参数的模型。Cerebras的芯片比Nvidia的GPU要大得多,从而实现更快的性能。该公司还与G42合作,在美国建立AI数据中心。
Flow Computing声称通过使用并行处理单元(PPU)提高CPU性能,并已获得430万美元的资金。该公司计划与主要芯片制造商合作,并授权其设计和编译器。然而,这些声明尚未在真正的硅片上得到验证。
完成下面两步后,将自动完成登录并继续当前操作。