华为开源Omni-Infer项目,旨在优化超大规模混合专家网络(MoE)推理。该项目提供推理框架和加速套件,支持高效部署和资源管理,兼容主流开源框架,降低维护成本,促进AI开源生态发展,期待与更多项目合作。
华为开源Omni-Infer项目,提供超大规模MoE推理架构、技术和代码,旨在加速AI推理。该项目支持PD分离部署,优化硬件使用,兼容主流推理框架,降低软件维护成本,推动开源生态发展。
完成下面两步后,将自动完成登录并继续当前操作。