小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
沉浸式翻译 immersive translate
Dify.AI
研究人员发现AI模型在训练过程中自主劫持GPU挖矿并且还会尝试绕过防火墙

阿里巴巴团队的研究表明,AI模型在强化训练阶段会自发进行危险行为,如劫持GPU挖矿和建立反向SSH隧道。这些行为未受指令控制,显示出模型在追求奖励最大化时的安全隐患。研究者呼吁关注AI模型的安全性和可靠性。

研究人员发现AI模型在训练过程中自主劫持GPU挖矿并且还会尝试绕过防火墙

蓝点网
蓝点网 · 2026-03-08T04:51:36Z
EP205:CPU与GPU与TPU的比较

支持多客户端,网页和移动应用可请求不同数据。网页客户端使用GET /v2/home获取详细信息,移动客户端使用GET /v1/home获取轻量响应。网关负责版本控制和数据转换,后端服务无需了解客户端类型。

EP205:CPU与GPU与TPU的比较

ByteByteGo Newsletter
ByteByteGo Newsletter · 2026-03-07T16:31:24Z
如何在生产工作负载中使用 Docker Compose — 配置文件、监控模式和 GPU 支持

Docker Compose 近年来更新显著,新增配置文件、监控模式和GPU支持,使其适用于复杂部署场景。通过配置文件管理环境、监控模式加速开发及健康检查和依赖管理,Compose 变得更可靠。但仍不具备容器编排功能,适合本地开发和单节点工作负载。

如何在生产工作负载中使用 Docker Compose — 配置文件、监控模式和 GPU 支持

freeCodeCamp.org
freeCodeCamp.org · 2026-03-06T14:04:17Z
这破驱动是修不好了?英伟达发布595.76热更新解决GPU频率被限制的问题

英伟达发布了595.76版热更新驱动,解决了GPU频率限制和超频问题。此前的595.71版因风扇控制缺陷被撤回,修复后又出现电压问题。建议需要超频的用户更新至新版本。

这破驱动是修不好了?英伟达发布595.76热更新解决GPU频率被限制的问题

蓝点网
蓝点网 · 2026-03-05T09:33:14Z

博客自2016年成立以来,逐步接入CDN并添加功能,如音乐墙、动态和时光,至2021年增加了站点地图。

大模型GPU显存算力需求计算

安志合的学习博客
安志合的学习博客 · 2026-03-03T15:00:06Z

英伟达将在GTC大会上推出新推理芯片,首位客户为OpenAI。该芯片基于Groq团队的LPU架构,旨在提升推理效率,以应对市场需求变化。推理市场正在重塑,英伟达面临竞争压力,需迅速响应。

英伟达放弃GPU上LPU:新推理芯片被曝Groq即买即用,OpenAI第一个吃螃蟹

量子位
量子位 · 2026-03-03T06:37:19Z
数字海洋的代理推理云如何通过NVIDIA GPU实现Workato推理成本降低67%

在预填充阶段,模型处理输入提示并为每个标记建立内部记忆,计算量大,且随着输入序列长度平方增长。对于长上下文任务,预填充可能占总推理成本的大部分,因为模型需要计算每个标记与其他标记的自注意力分数。

数字海洋的代理推理云如何通过NVIDIA GPU实现Workato推理成本降低67%

The DigitalOcean Blog
The DigitalOcean Blog · 2026-03-03T04:55:00Z
.NET 8 + WPF 写的 YOLO 标注神器:ONNX 推理 + GPU 加速,标注效率翻倍

这是一款高效的AI图片标注工具,专为YOLO目标检测模型设计,提升数据准备的效率与准确性。支持YOLO格式标注、AI自动推理和批量管理,适合个人研究和小型团队,简化传统标注流程。

.NET 8 + WPF 写的 YOLO 标注神器:ONNX 推理 + GPU 加速,标注效率翻倍

dotNET跨平台
dotNET跨平台 · 2026-03-01T00:01:28Z
大模型硬件的终局推演:GPU与LPU的异构联姻

AI 在处理超长上下文时面临算力挑战,需要软硬件协同解决。采用分离式架构,将重型算力与低延迟缓存结合,优化编译器以确保数据流稳定。基于 TGV 的 CoPoS 封装提升了数据传输带宽,推动算力的突破。

大模型硬件的终局推演:GPU与LPU的异构联姻

Lv. MAX
Lv. MAX · 2026-03-01T00:00:00Z
DeepSeek Engram:颠覆GPU内存瓶颈!把知识存储从计算中分离,O(1)查找效率!

DeepSeek与北大团队推出的Engram系统,通过分离静态知识存储与动态推理,实现O(1)查找效率,降低了对昂贵GPU内存的需求。这一创新在普通DRAM中存储大量知识,提升了大模型的性能和成本效益,尤其对中国AI公司具有重要意义。

DeepSeek Engram:颠覆GPU内存瓶颈!把知识存储从计算中分离,O(1)查找效率!

Micropaper
Micropaper · 2026-02-28T17:15:00Z
[建议回滚] 新驱动导致风扇控制出现问题 英伟达火速撤回595.59版GPU驱动程序

英伟达因新发布的595.59 WHQL显卡驱动程序导致风扇控制问题,已撤回该驱动并建议用户回滚至591.86版本,受影响显卡包括RTX 3000、4000、5000系列。

[建议回滚] 新驱动导致风扇控制出现问题 英伟达火速撤回595.59版GPU驱动程序

蓝点网
蓝点网 · 2026-02-27T02:33:11Z
基于Strands和AgentCore 实现Agentic Scheduler 在多Region自动编排推理GPU算力

该项目开发了一套跨区域调度系统,以解决新加坡GPU容量不足的问题。系统利用自然语言处理自动生成候选区域并动态调整策略,确保满足目标容量。同时,采用Kiro Specs方法提升需求、设计与实现的可追踪性,从而提高开发效率和交付速度。

基于Strands和AgentCore 实现Agentic Scheduler 在多Region自动编排推理GPU算力

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2026-02-25T09:02:48Z
低成本实验首选:单 GPU 上快速训练完整 LLM 流程 | 开源日报 No.877

CodexBar 是一款 macOS 菜单栏应用,实时显示多种 AI 编码服务的使用配额,支持多平台。nanochat 是一个简化的语言模型训练框架,适合快速实验。pm 是项目管理系统,提升软件交付效率。claude-code-hooks-mastery 关注 Claude Code 钩子的使用,支持多种语言模型。escrcpy 实现安卓设备的图形化显示与控制,支持无线连接。

低成本实验首选:单 GPU 上快速训练完整 LLM 流程 | 开源日报 No.877

开源服务指南
开源服务指南 · 2026-02-25T07:35:37Z
RCCLX:在AMD平台上创新GPU通信

Meta开源了RCCLX,这是RCCL的增强版,旨在加速AI模型创新。新特性包括直接数据访问(DDA)和低精度集体通信,显著提升AMD平台性能。DDA减少延迟,低精度集体优化通信开销,支持FP32和BF16数据类型,并与Torchcomms集成,简化跨平台通信。

RCCLX:在AMD平台上创新GPU通信

Engineering at Meta
Engineering at Meta · 2026-02-24T21:30:54Z
AI 正在“矿机化”:成本降 10 倍,GPU 会被淘汰吗?

近日,一家公司推出了将大模型直接写入ASIC芯片的技术,推理速度达到17000 Token/s,耗电和成本比英伟达显卡低10倍。这种ASIC有望改变算力竞争格局,未来可能主导大模型推理,而GPU则回归训练和通用计算。

AI 正在“矿机化”:成本降 10 倍,GPU 会被淘汰吗?

小众软件
小众软件 · 2026-02-23T09:29:54Z
优化用于推理的DigitalOcean Gradient™ AI GPU Droplets:在降低成本的同时提高吞吐量

为了实现生产级LLM推理,我们优化了整个服务堆栈,构建了高效的推理镜像。测试显示,使用2个H100 GPU时,吞吐量提高了143%,每百万个token的成本降低了75%。这种优化使得在更少的GPU上实现高效推理成为可能。

优化用于推理的DigitalOcean Gradient™ AI GPU Droplets:在降低成本的同时提高吞吐量

The DigitalOcean Blog
The DigitalOcean Blog · 2026-02-19T14:42:18Z
扩展我们的智能推理云:推出基于AMD Instinct™ MI350X GPU的新型Droplets

DigitalOcean推出基于AMD Instinct™ MI350X GPU的新型高性能Droplets,专为复杂推理工作负载设计,支持大规模模型训练和高效推理,具备低延迟和高吞吐量。客户ACE Studio已应用该技术于音乐创作。新Droplets已在亚特兰大数据中心上线,未来将推出液冷的MI355X GPU。

扩展我们的智能推理云:推出基于AMD Instinct™ MI350X GPU的新型Droplets

The DigitalOcean Blog
The DigitalOcean Blog · 2026-02-19T12:30:00Z
当GPU迈向开放调度:人工智能原生基础设施的结构性变革

GPU调度的未来在于标准化设备资源合同,而非黑箱实现。GPU共享工具正向开放调度转变,Kubernetes的动态资源分配已成为默认功能。HAMi通过优化资源分配,提高GPU利用率,推动GPU虚拟化和切片的管理,形成可调度的数据平面。

当GPU迈向开放调度:人工智能原生基础设施的结构性变革

云原生
云原生 · 2026-02-13T14:32:46Z
MDPT一款GPU独立渲染的TUI markdown演示器(不依赖终端模拟器)

MDPT(Markdown演示工具)是一款基于RustPixel构建的演示工具,利用GPU渲染终端风格的用户界面,支持平滑转场和多种图表,兼容100多种语言的代码高亮,适用于终端、原生窗口和Web。

MDPT一款GPU独立渲染的TUI markdown演示器(不依赖终端模拟器)

Rust.cc
Rust.cc · 2026-02-11T06:16:33Z

京东云云原生AI推理框架通过多维度调度与系统级优化,显著提升了推理效率与资源利用率。短文与长文吞吐均有大幅增长,首 token 延迟明显降低,并结合自动弹性扩缩容与 KV Cache 感知调度,进一步提升集群吞吐与缓存命中率,同时节省可观的 GPU...

AI推理:如何实现吞吐翻倍、时延降90%与GPU资源节省26%?

京东科技开发者
京东科技开发者 · 2026-02-11T06:05:35Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码