英伟达含量为零!华为密集模型性能比肩DeepSeek-R1,纯昇腾集群训练 LiveCodeBench达到SOTA水平 华为的盘古Ultra模型在数学和编程任务中表现出色,参数量为135B,训练过程中未使用英伟达技术,且无损失尖峰。其改进的架构和优化策略使算力利用率超过52%。在多个基准任务中,盘古Ultra超越了其他大型模型,展现了卓越的语言理解和推理能力。 deepseek-r1 华为 推理能力 模型 盘古Ultra 英伟达 语言理解 集群