ChatGPT将需要3万张英伟达显卡的算力维持运营 售价大约3亿美元

💡 原文中文,约900字,阅读约需3分钟。
📝

内容提要

OPENAI 推出的 ChatGPT 模型需要大量显卡,英伟达的 A100 加速卡是主力,微软等公司也在大规模采购,AMD 和 Intel 也在提供 AI 加速卡,谷歌等公司也在研究专用芯片,竞争激烈,老黄仍然领先。

🎯

关键要点

  • OPENAI 的 ChatGPT 模型依赖大量显卡,主要使用英伟达的 A100 加速卡。
  • 市场分析称 OPENAI 训练 ChatGPT 需要约 20,000 张显卡,商业部署需 30,000 张。
  • OPENAI 不会购买 RTX 4090/4080 显卡,因为其不适合大规模模型训练。
  • 单张 A100 加速卡价格在 10,000~15,000 美元,总价超过 3 亿美元。
  • 英伟达提供 DGX A100 套装,售价 19.9 万美元,适合中小型 AI 公司。
  • 英伟达推出新卡 H100,性能是 A100 的三倍,价格为 32,000 美元。
  • 微软等公司也在大规模采购英伟达加速卡,AMD 和 Intel 试图抢占市场份额。
  • 谷歌和亚马逊等公司在研究专用 AI 芯片,市场竞争激烈,英伟达仍然领先。
➡️

继续阅读