小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
解锁高效模型部署:在 Amazon SageMaker HyperPod 上简化推理操作符设置

Amazon SageMaker HyperPod 提供全面的 AI 开发生命周期支持,包括实验、训练和推理。新推出的 HyperPod 推理操作符简化了模型部署,支持一键安装和管理升级,消除了复杂配置需求。用户可通过 SageMaker 控制台、CLI 或 Terraform 快速部署推理工作负载,提高效率,降低复杂性。

解锁高效模型部署:在 Amazon SageMaker HyperPod 上简化推理操作符设置

AWS Architecture Blog
AWS Architecture Blog · 2026-04-06T21:14:13Z
Aigen如何通过Amazon SageMaker AI转型农业机器人,实现可持续农业

Aigen通过AWS SageMaker AI现代化其农业机器人机器学习管道,提升了数据标注的效率和成本效益,解决了传统农业机器人的挑战,实现了可持续农业的规模化发展。

Aigen如何通过Amazon SageMaker AI转型农业机器人,实现可持续农业

AWS Architecture Blog
AWS Architecture Blog · 2026-03-30T15:36:36Z
使用Amazon SageMaker Hyperpod Cluster部署whisper模型

本文介绍了如何在 Amazon SageMaker HyperPod 集群中部署 Whisper 模型,利用 Triton Inference Server 提供高效推理服务。通过容器化部署,解决了异构 GPU 部署和请求调度的复杂性,实现了灵活的资源管理与监控。

使用Amazon SageMaker Hyperpod Cluster部署whisper模型

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2026-03-24T06:17:18Z
在Amazon SageMaker AI和Amazon Bedrock上高效服务数十个微调模型与vLLM

为解决多模型AI服务的闲置GPU成本问题,我们与vLLM社区合作开发了Multi-LoRA技术,允许多个模型共享同一GPU,优化MoE模型的推理性能。该技术通过保持原始权重不变,仅调整小型适配器,显著提升了输出速度并降低了延迟,适用于多个开源MoE模型,并已在Amazon SageMaker和Bedrock上实现。

在Amazon SageMaker AI和Amazon Bedrock上高效服务数十个微调模型与vLLM

vLLM Blog
vLLM Blog · 2026-02-26T00:00:00Z
基于 Amazon SageMaker HyperPod 的 ComfyUI 部署方案

ComfyUI 是一个开源的节点式工作流平台,专为 AI 内容生成设计。它支持可视化工作流和多模型集成,并具备私有化能力。结合 AWS SageMaker HyperPod,提供稳定的基础设施,简化部署与管理。通过自动化脚本实现一键部署,解决环境一致性和版本管理问题,适合企业级 AI 工作流。

基于 Amazon SageMaker HyperPod 的 ComfyUI 部署方案

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2026-02-25T03:42:44Z
在 Amazon SageMaker 上部署 Fast-Whisper:Async endpoint推理部署实践总结

本文探讨了如何将Fast-Whisper模型部署到Amazon SageMaker推理端点,以实现实时响应和批量处理。通过使用SageMaker的异步推理,提升了吞吐量和稳定性,并实现自动扩缩容,从而优化了音频转写服务的性能和成本。

在 Amazon SageMaker 上部署 Fast-Whisper:Async endpoint推理部署实践总结

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2026-01-09T01:53:09Z
Lyft重构机器学习平台,采用混合AWS SageMaker-Kubernetes方案

Lyft将其机器学习平台LyftLearn重构为混合系统,离线工作负载迁移至AWS SageMaker,在线模型服务保留在Kubernetes上。这一变革简化了操作复杂性,提高了工程效率,并支持数百万次日常预测,同时确保与现有ML代码兼容,减少基础设施事件,提升平台能力。

Lyft重构机器学习平台,采用混合AWS SageMaker-Kubernetes方案

InfoQ
InfoQ · 2025-12-16T10:30:00Z
在 Amazon SageMaker HyperPod 上推出无检查点和弹性训练

Amazon SageMaker HyperPod 推出了无检查点训练和弹性训练功能,前者减少恢复时间,提高模型开发效率;后者自动调整资源使用,最大化集群利用率。这些技术帮助团队专注于模型性能,缩短训练时间。

在 Amazon SageMaker HyperPod 上推出无检查点和弹性训练

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-12-08T02:29:07Z
Amazon SageMaker AI 中的新无服务器定制加速模型微调

Amazon SageMaker AI推出无服务器模型定制功能,支持多种热门AI模型。用户可通过简易界面快速定制,缩短流程时间,并支持强化学习等微调技术,自动选择计算资源,简化模型训练与部署。该功能已在多个地区上线。

Amazon SageMaker AI 中的新无服务器定制加速模型微调

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-12-08T02:24:02Z
Amazon Bedrock与Amazon SageMaker AI推出模型定制全新功能

亚马逊云科技在2025 re:Invent大会上推出了Amazon Bedrock和SageMaker AI的新功能,简化了AI模型定制流程。Reinforcement Fine Tuning(RFT)提高了模型准确率,定制时间缩短至几天,开发者可选择引导模式或自主模式,平均准确率提升66%。

Amazon Bedrock与Amazon SageMaker AI推出模型定制全新功能

全球TMT-美通国际
全球TMT-美通国际 · 2025-12-05T03:11:49Z
AWS简化了在Bedrock和SageMaker中定制AI模型的过程,无需博士学位。

AWS在拉斯维加斯推出Nova Forge,允许企业使用自有数据定制大型语言模型。同时,SageMaker和Bedrock也增强了模型定制选项,简化开发流程,提高模型性能。

AWS简化了在Bedrock和SageMaker中定制AI模型的过程,无需博士学位。

The New Stack
The New Stack · 2025-12-03T19:30:44Z
Deepgram 在 Amazon SageMaker AI 上推出流媒体语音、文本和语音代理

Deepgram与Amazon SageMaker AI集成,提供流式实时语音转文本和文本转语音功能,简化AWS环境中的语音应用开发,适用于呼叫中心等场景,确保数据安全与合规性,助力企业创新。

Deepgram 在 Amazon SageMaker AI 上推出流媒体语音、文本和语音代理

实时互动网
实时互动网 · 2025-12-01T03:30:27Z
基于 MIG 技术在 Amazon SageMaker HyperPod 上实现 GPU 虚拟化的最佳实践

在人工智能快速发展的背景下,GPU资源管理面临低利用率、高成本和调度复杂等挑战。NVIDIA的MIG技术通过硬件虚拟化提升GPU利用率至85%以上,并结合Amazon EKS,提供云原生架构的优势,确保资源安全与合规。

基于 MIG 技术在 Amazon SageMaker HyperPod 上实现 GPU 虚拟化的最佳实践

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-11-20T09:29:42Z
新一代SageMaker+Databricks统一目录:机器学习与数据分析工作流打通方案

企业在数据驱动决策中面临数据孤岛和治理一致性挑战。通过SageMaker Unified Studio与Databricks Unity Catalog的深度集成,企业能够高效分析数据,确保安全合规,提升开发效率,降低治理成本,释放数据价值。该方案适合需要扩展机器学习能力和严格数据治理的行业。

新一代SageMaker+Databricks统一目录:机器学习与数据分析工作流打通方案

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-10-16T09:19:12Z
PCB智能视觉质检: 轻松上手SageMaker训练YOLO并部署到Lambda

本文介绍了如何利用AWS构建PCB智能视觉质检系统,通过深度学习和YOLO算法自动识别PCB缺陷,提高检测效率。关键步骤包括数据准备、模型训练和无服务器部署,高质量数据和精确标注是成功的基础,最终实现快速、准确的缺陷检测。

PCB智能视觉质检: 轻松上手SageMaker训练YOLO并部署到Lambda

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-09-28T01:50:04Z
AWS 一周综述:单 GPU P5 实例、Advanced Go 驱动程序、Amazon SageMaker HyperPod 等(2025 年 8 月 18 日)

AWS 本周更新推出了单 GPU P5 实例、Advanced Go 驱动程序和 Amazon SageMaker HyperPod。BeSA 计划即将启动,旨在帮助人们在云职业生涯中取得突破。此外,AWS 被评为 Gartner 战略云平台服务领导者,并推出了云管控 API 和 AgentCore Gateway 等新服务。即将举行的 AWS 活动包括 re:Invent 2025 和多个社区峰会。

AWS 一周综述:单 GPU P5 实例、Advanced Go 驱动程序、Amazon SageMaker HyperPod 等(2025 年 8 月 18 日)

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-08-28T08:28:40Z
借助新的 Amazon SageMaker Catalog 功能,简化从数据到洞察的路径

现代组织面临数据管理障碍,影响分析效率。Amazon SageMaker推出新功能,简化数据整合与可视化,支持QuickSight集成、S3存储桶访问及自动数据载入,从而提升数据利用率和决策速度。

借助新的 Amazon SageMaker Catalog 功能,简化从数据到洞察的路径

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-07-21T06:53:10Z
宣布在 Amazon SageMaker AI 中推出 Amazon Nova 定制功能

Amazon SageMaker AI为Amazon Nova推出定制功能,支持模型训练的各个阶段。客户可根据需求选择有监督微调、对齐、持续预训练和知识蒸馏等技术,以优化模型性能,满足特定的准确性和成本要求。

宣布在 Amazon SageMaker AI 中推出 Amazon Nova 定制功能

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-07-18T04:06:18Z
基于 Amazon SageMaker 有状态路由优化大规模推理集群下的 KV Cache 复用方案

随着大语言模型(LLMs)的普及,高效部署成为一大挑战。KV Cache通过重用计算结果提升推理效率,但在大规模集群中,随机负载均衡影响缓存复用。Amazon SageMaker的有状态会话路由机制解决了这一问题,确保相似请求路由到同一节点,从而降低延迟,提高系统性能。

基于 Amazon SageMaker 有状态路由优化大规模推理集群下的 KV Cache 复用方案

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-07-08T03:57:35Z
利用 Amazon SageMaker Sticky Session 实现大语言模型推理加速

Amazon SageMaker的粘性会话路由功能通过会话绑定机制优化了大语言模型的推理性能,解决了传统架构的性能瓶颈,提升了用户体验和系统效率。该技术确保同一用户的请求路由到相同实例,实现缓存复用,降低计算开销,适用于需要保持对话上下文的应用。

利用 Amazon SageMaker Sticky Session 实现大语言模型推理加速

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-07-01T03:22:53Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码