英伟达宣布推出HGX H200人工智能加速卡 推理速度较H100翻倍
原文中文,约1600字,阅读约需4分钟。发表于: 。芯片制造商英伟达今天宣布推出 NVIDIA H100 GPU 的下一代产品:NVIDIA HGX H200 G […]
英伟达推出了基于Hopper架构的NVIDIA HGX H200 GPU,采用HBM3e内存,带宽4.8TB每秒。与H100相比,HGX H200在Llama 2上的推理速度提高了一倍。适用于各种数据中心,并可通过AWS、Google Cloud、Microsoft Azure和Oracle Cloud进行部署。NVIDIA GH200 Grace Hopper超级芯片可与HGX H200 GPU结合使用,用于超算和AI计算。