小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
沉浸式翻译 immersive translate
NVIDIA H100 GPU在CoreWeave的AI云平台上实现Graph500基准测试的破纪录表现

NVIDIA在Graph500基准测试中以每秒410万亿边的速度获胜,使用8192个H100 GPU处理2.2万亿顶点和35万亿边,性能是其他方案的两倍,推动高性能计算的发展。

NVIDIA H100 GPU在CoreWeave的AI云平台上实现Graph500基准测试的破纪录表现

NVIDIA Blog
NVIDIA Blog · 2025-12-10T20:56:53Z

英伟达与谷歌在太空AI算力竞争中加速,英伟达的H100已由Starcloud卫星发射,谷歌计划在2027年发射TPU。同时,中国的之江实验室已发射12颗计算卫星,展现出强大的计算能力,太空AI竞赛愈发激烈。

AI算力大战打到太空!英伟达前脚H100入轨,谷歌TPU后脚上天,中国玩家笑而不语

量子位
量子位 · 2025-11-05T02:33:30Z
美国初创公司计划将英伟达H100加速器发射到太空 利用太阳能供电和宇宙低温提高效率

美国初创公司Starcloud计划于2025年发射搭载英伟达H100 GPU的Starcloud-1卫星,该卫星将利用太阳能供电并在太空中运行。尽管太空散热条件良好,但辐射散热效率低,故障维修困难,可能引发太空垃圾问题。

美国初创公司计划将英伟达H100加速器发射到太空 利用太阳能供电和宇宙低温提高效率

蓝点网
蓝点网 · 2025-10-24T02:45:30Z
在欧盟推出由NVIDIA HGX H100加速的GPU Droplets

NVIDIA HGX H100 GPU Droplets已在阿姆斯特丹数据中心上线,满足高性能计算需求。WindBorne Systems利用其进行实时预测模型训练,表现优于其他云服务。该服务易于使用,支持快速部署和安全合规,且价格合理。

在欧盟推出由NVIDIA HGX H100加速的GPU Droplets

The DigitalOcean Blog
The DigitalOcean Blog · 2025-10-07T20:57:57Z
硅谷惊变:12万张H100的挽歌

2025年,Meta LLaMA项目开发者因中国团队DeepSeek的论文震惊,后者仅用2000张GPU便超越了Meta的12万张GPU模型。项目失败后,扎克伯格试图通过收购和高薪吸引人才,但内部斗争频繁,导致实验室混乱。

硅谷惊变:12万张H100的挽歌

宝玉的分享
宝玉的分享 · 2025-09-04T16:05:17Z
遥遥领先的华为升腾384超节点VS英伟达NVL72:FP16算力压H100却逊GB200,三倍功耗换自主可控值不值?

华为的升腾384超节点在算力上部分超越英伟达的NVL72,但在稳定性和兼容性方面仍存在不足。该设备采用自主架构,支持大模型训练,但光模块故障率高,可能导致训练不稳定。整体来看,升腾384为国内算力中心提供了新选择,推动自主可控的信创产业发展。

遥遥领先的华为升腾384超节点VS英伟达NVL72:FP16算力压H100却逊GB200,三倍功耗换自主可控值不值?

硕鼠的博客站
硕鼠的博客站 · 2025-07-29T00:57:08Z
马斯克重磅发布GROK4:史上最聪明AI大模型横空出世,强化学习碾压GPT-4与Claude,20万张H100显卡大力出奇迹,中美科技差距再度拉大,谁将主导AI未来?

GROK4是马斯克推出的最新AI大模型,具备强大的推理和生成能力,采用20万张显卡进行强化学习,显著提升科研效率。在“人类终极测试”中表现优异,超越其他模型。尽管日常任务处理能力一般,但在科研领域表现突出。未来将提供企业私有部署服务,市场竞争激烈。

马斯克重磅发布GROK4:史上最聪明AI大模型横空出世,强化学习碾压GPT-4与Claude,20万张H100显卡大力出奇迹,中美科技差距再度拉大,谁将主导AI未来?

硕鼠的博客站
硕鼠的博客站 · 2025-07-15T00:42:44Z

Tri Dao及其团队推出了QuACK内核库,完全用Python编写,利用CuTe-DSL,无需CUDA代码,在H100上实现33%-50%的加速,专注于内存密集型内核优化,提升GPU性能,受到业界关注。

无需CUDA代码给H100加速33%-50%,Flash Attention作者新作火了

量子位
量子位 · 2025-07-11T06:59:36Z

华为推出的CloudMatrix384架构旨在提升AI数据中心的算力效率,突破传统GPU集群的限制。该架构通过高带宽全对等互连和资源解耦,实现高效灵活的计算,支持动态资源调配,显著降低延迟并提升性能,为AI应用提供更优基础设施解决方案。

华为CloudMatrix重磅论文披露AI数据中心新范式,推理效率超 H100

量子位
量子位 · 2025-06-29T05:56:04Z

Meta发布Llama 4系列,包括Llama 4 Scout和Maverick,采用MoE架构,显著减少参数量,性能超越GPT-4.5。新模型支持百万上下文,具备多模态能力,运行成本低,标志着开源AI新时代。

LIama 4发布重夺开源第一!DeepSeek同等代码能力但参数减一半,一张H100就能跑,还有两万亿参数超大杯

量子位
量子位 · 2025-04-06T02:41:26Z
新加坡”晶盾行动”打击GPU转运网络,DeepSeek的英伟达H100是怎么流入中国的?

新加坡近期实施“晶盾行动”,查获22个半导体贸易节点,拘留9名涉案人员,涉及伪造文件和走私英伟达芯片。新法案将加强对AI芯片的监管,要求严格验证终端用户,提升查验效率,可能影响全球GPU供应链,尤其是中国市场的芯片流入。

新加坡”晶盾行动”打击GPU转运网络,DeepSeek的英伟达H100是怎么流入中国的?

硕鼠的博客站
硕鼠的博客站 · 2025-03-03T00:50:16Z

达尔优H100轻量化游戏手柄重155克,设计优雅,适合长时间使用。采用霍尔摇杆和扳机,响应迅速,减轻手指疲劳。支持多设备连接,续航良好,性价比高,适合游戏爱好者。

手柄也讲轻量化?达尔优H100轻量化游戏手柄,不止是轻量!

熊猫不是猫QAQ
熊猫不是猫QAQ · 2024-12-24T13:03:00Z

红杉资本报告称,AI产业需年产值超6000亿美元才能支付基础设施费用。OpenAI等公司在训练和推理上的支出超过收入,预计2026年亏损140亿美元。NVIDIA新芯片供不应求,GPU市场竞争激烈,H100算力供过于求,价格下降。市场趋势显示开放模型兴起,小型模型减少,算力需求下降。建议租用算力以避免投资亏损。

2美元/小时出租H100:GPU泡沫破灭前夜

OneFlow深度学习框架
OneFlow深度学习框架 · 2024-10-13T00:03:41Z
DigitalOcean Kubernetes(DOKS)现已支持H100 GPU工作节点

DigitalOcean推出支持GPU的Kubernetes服务,简化AI创新。用户可在集群中使用1到8个GPU,适用于AI模型训练、视频处理和大数据分析。NVIDIA H100 GPU的集成提升了性能,帮助企业更经济地利用AI技术。

DigitalOcean Kubernetes(DOKS)现已支持H100 GPU工作节点

The DigitalOcean Blog
The DigitalOcean Blog · 2024-10-08T10:00:00Z
微调大模型,AMD MI300X就够了!跟着这篇博客微调Llama 3.1 405B,效果媲美H100

随着AI模型参数增加,算力需求也在增长。Felafax公司通过简化AI训练集群,将训练成本降低了30%。他们使用JAX在AMD GPU上微调LLaMA 3.1 405B模型,展示了JAX在非英伟达硬件上的优势。JAX支持多硬件并行,适应性强,迁移方便。Felafax利用JAX的设备网格功能进行参数分片,优化内存和计算效率,并通过LoRA技术减少可训练参数,实现高效微调。相关代码已开源,并提供详细教程。

微调大模型,AMD MI300X就够了!跟着这篇博客微调Llama 3.1 405B,效果媲美H100

机器之心
机器之心 · 2024-10-08T06:26:45Z
AWS 宣布 EC2 P5e 实例正式上线,搭载 NVIDIA H100 Tensor Core GPU

亚马逊云服务(AWS)推出了搭载NVIDIA H100 Tensor Core GPU的Amazon EC2 P5e实例,提升了人工智能、机器学习和高性能计算(HPC)应用的计算基础设施。P5e实例具有更高的性能、成本效益和可扩展性,配备了8个H200 GPU,提供更大的GPU内存和带宽。支持3200 Gbps网络和低延迟的Amazon EC2 UltraClusters。可用于大规模语言模型(LLM)训练和推理,以及高性能模拟,如天气预报、基因组研究和流体动力学建模。

AWS 宣布 EC2 P5e 实例正式上线,搭载 NVIDIA H100 Tensor Core GPU

InfoQ
InfoQ · 2024-09-18T10:00:00Z

本研究解决了启用可信执行环境(TEE)对NVIDIA H100 GPU在大型语言模型(LLM)推理任务中性能的影响。研究表明,尽管GPU内部的计算开销较小,但总体性能罚款主要来自于通过PCIe的数据传输;绝大多数典型LLM查询的开销保持在5%以下。

在nVIDIA H100 GPU上的保密计算:性能基准研究

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-09-06T00:00:00Z

真我手机发布真我13 Pro,搭载天玑7300处理器,120Hz高刷新率直屏,5000mAh电池,支持80W闪充。铂傲推出Beoplay H100头戴式耳机,模块化设计,定价11598元。淘宝减免卖家直播软件服务费1年。《星鸣特攻》下线停售,已购买游戏玩家可退款。Intel取消Beast Lake处理器及后续产品线,重心放在GPU方面。少数派推出PiPods真无线耳机特卖,只需199元。

派早报:真我 13 Pro、Beoplay H100 头戴式耳机等新品发布

少数派
少数派 · 2024-09-04T00:00:00Z
DigitalOcean Kubernetes 现已支持 Nvidia H100(早期访问)

DigitalOcean推出了支持GPU的DOKS早期访问版,采用了NVIDIA的最新H100 GPU。该服务旨在为各种规模的企业提供更易于访问和负担得起的AI/ML开发。GPU支持的工作节点提供了可扩展性、灵活性和成本效益,适用于AI/ML实验、分布式AI工作负载和扩展AI推理服务。集成了NVIDIA的H100 GPU,提供了Kubernetes集成、灵活的配置、可扩展性和成本效益等增强功能。DigitalOcean邀请用户加入早期访问计划,探索在DOKS上使用支持GPU的工作节点的可能性。

DigitalOcean Kubernetes 现已支持 Nvidia H100(早期访问)

The DigitalOcean Blog
The DigitalOcean Blog · 2024-08-30T17:00:00Z

Llama 3.1,一个大规模的AI训练模型,在预训练期间频繁出现故障,其中58.7%的问题与GPU有关。团队使用了PyTorch的NCCL飞行记录器等工具来诊断和解决问题。环境因素,如温度波动,也影响了训练性能。随着Meta计划扩展Llama模型,维护一个大型AI集群将是一个挑战。构建和管理这样的集群是复杂的。

Llama3.1训练平均3小时故障一次,H100万卡集群好脆弱,气温波动都会影响吞吐量

量子位
量子位 · 2024-07-29T06:56:05Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码