小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
沉浸式翻译 immersive translate
Dify.AI
在Amazon SageMaker AI和Amazon Bedrock上高效服务数十个微调模型与vLLM

为解决多模型AI服务的闲置GPU成本问题,我们与vLLM社区合作开发了Multi-LoRA技术,允许多个模型共享同一GPU,优化MoE模型的推理性能。该技术通过保持原始权重不变,仅调整小型适配器,显著提升了输出速度并降低了延迟,适用于多个开源MoE模型,并已在Amazon SageMaker和Bedrock上实现。

在Amazon SageMaker AI和Amazon Bedrock上高效服务数十个微调模型与vLLM

vLLM Blog
vLLM Blog · 2026-02-26T00:00:00Z
基于 Amazon SageMaker HyperPod 的 ComfyUI 部署方案

ComfyUI 是一个开源的节点式工作流平台,专为 AI 内容生成设计。它支持可视化工作流和多模型集成,并具备私有化能力。结合 AWS SageMaker HyperPod,提供稳定的基础设施,简化部署与管理。通过自动化脚本实现一键部署,解决环境一致性和版本管理问题,适合企业级 AI 工作流。

基于 Amazon SageMaker HyperPod 的 ComfyUI 部署方案

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2026-02-25T03:42:44Z
在 Amazon SageMaker 上部署 Fast-Whisper:Async endpoint推理部署实践总结

本文探讨了如何将Fast-Whisper模型部署到Amazon SageMaker推理端点,以实现实时响应和批量处理。通过使用SageMaker的异步推理,提升了吞吐量和稳定性,并实现自动扩缩容,从而优化了音频转写服务的性能和成本。

在 Amazon SageMaker 上部署 Fast-Whisper:Async endpoint推理部署实践总结

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2026-01-09T01:53:09Z
Lyft重构机器学习平台,采用混合AWS SageMaker-Kubernetes方案

Lyft将其机器学习平台LyftLearn重构为混合系统,离线工作负载迁移至AWS SageMaker,在线模型服务保留在Kubernetes上。这一变革简化了操作复杂性,提高了工程效率,并支持数百万次日常预测,同时确保与现有ML代码兼容,减少基础设施事件,提升平台能力。

Lyft重构机器学习平台,采用混合AWS SageMaker-Kubernetes方案

InfoQ
InfoQ · 2025-12-16T10:30:00Z
在 Amazon SageMaker HyperPod 上推出无检查点和弹性训练

Amazon SageMaker HyperPod 推出了无检查点训练和弹性训练功能,前者减少恢复时间,提高模型开发效率;后者自动调整资源使用,最大化集群利用率。这些技术帮助团队专注于模型性能,缩短训练时间。

在 Amazon SageMaker HyperPod 上推出无检查点和弹性训练

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-12-08T02:29:07Z
Amazon SageMaker AI 中的新无服务器定制加速模型微调

Amazon SageMaker AI推出无服务器模型定制功能,支持多种热门AI模型。用户可通过简易界面快速定制,缩短流程时间,并支持强化学习等微调技术,自动选择计算资源,简化模型训练与部署。该功能已在多个地区上线。

Amazon SageMaker AI 中的新无服务器定制加速模型微调

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-12-08T02:24:02Z
Amazon Bedrock与Amazon SageMaker AI推出模型定制全新功能

亚马逊云科技在2025 re:Invent大会上推出了Amazon Bedrock和SageMaker AI的新功能,简化了AI模型定制流程。Reinforcement Fine Tuning(RFT)提高了模型准确率,定制时间缩短至几天,开发者可选择引导模式或自主模式,平均准确率提升66%。

Amazon Bedrock与Amazon SageMaker AI推出模型定制全新功能

全球TMT-美通国际
全球TMT-美通国际 · 2025-12-05T03:11:49Z
AWS简化了在Bedrock和SageMaker中定制AI模型的过程,无需博士学位。

AWS在拉斯维加斯推出Nova Forge,允许企业使用自有数据定制大型语言模型。同时,SageMaker和Bedrock也增强了模型定制选项,简化开发流程,提高模型性能。

AWS简化了在Bedrock和SageMaker中定制AI模型的过程,无需博士学位。

The New Stack
The New Stack · 2025-12-03T19:30:44Z
Deepgram 在 Amazon SageMaker AI 上推出流媒体语音、文本和语音代理

Deepgram与Amazon SageMaker AI集成,提供流式实时语音转文本和文本转语音功能,简化AWS环境中的语音应用开发,适用于呼叫中心等场景,确保数据安全与合规性,助力企业创新。

Deepgram 在 Amazon SageMaker AI 上推出流媒体语音、文本和语音代理

实时互动网
实时互动网 · 2025-12-01T03:30:27Z
基于 MIG 技术在 Amazon SageMaker HyperPod 上实现 GPU 虚拟化的最佳实践

在人工智能快速发展的背景下,GPU资源管理面临低利用率、高成本和调度复杂等挑战。NVIDIA的MIG技术通过硬件虚拟化提升GPU利用率至85%以上,并结合Amazon EKS,提供云原生架构的优势,确保资源安全与合规。

基于 MIG 技术在 Amazon SageMaker HyperPod 上实现 GPU 虚拟化的最佳实践

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-11-20T09:29:42Z
新一代SageMaker+Databricks统一目录:机器学习与数据分析工作流打通方案

企业在数据驱动决策中面临数据孤岛和治理一致性挑战。通过SageMaker Unified Studio与Databricks Unity Catalog的深度集成,企业能够高效分析数据,确保安全合规,提升开发效率,降低治理成本,释放数据价值。该方案适合需要扩展机器学习能力和严格数据治理的行业。

新一代SageMaker+Databricks统一目录:机器学习与数据分析工作流打通方案

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-10-16T09:19:12Z
PCB智能视觉质检: 轻松上手SageMaker训练YOLO并部署到Lambda

本文介绍了如何利用AWS构建PCB智能视觉质检系统,通过深度学习和YOLO算法自动识别PCB缺陷,提高检测效率。关键步骤包括数据准备、模型训练和无服务器部署,高质量数据和精确标注是成功的基础,最终实现快速、准确的缺陷检测。

PCB智能视觉质检: 轻松上手SageMaker训练YOLO并部署到Lambda

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-09-28T01:50:04Z
AWS 一周综述:单 GPU P5 实例、Advanced Go 驱动程序、Amazon SageMaker HyperPod 等(2025 年 8 月 18 日)

本周更新提到BeSA(成为解决方案架构师)免费指导计划即将启动,重点关注AWS迁移与现代化。同时,宣布了6位新的AWS大侠,以表彰其技术领导力,并介绍了即将举行的AWS活动。

AWS 一周综述:单 GPU P5 实例、Advanced Go 驱动程序、Amazon SageMaker HyperPod 等(2025 年 8 月 18 日)

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-08-28T08:28:40Z
借助新的 Amazon SageMaker Catalog 功能,简化从数据到洞察的路径

现代组织面临数据管理障碍,影响分析效率。Amazon SageMaker推出新功能,简化数据整合与可视化,支持QuickSight集成、S3存储桶访问及自动数据载入,从而提升数据利用率和决策速度。

借助新的 Amazon SageMaker Catalog 功能,简化从数据到洞察的路径

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-07-21T06:53:10Z

现在,我们宣布在 Amazon SageMaker AI 中推出一整套适用于 Amazon Nova 的定制功 […]

宣布在 Amazon SageMaker AI 中推出 Amazon Nova 定制功能

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-07-18T04:06:18Z
基于 Amazon SageMaker 有状态路由优化大规模推理集群下的 KV Cache 复用方案

随着大语言模型(LLMs)的普及,高效部署成为一大挑战。KV Cache通过重用计算结果提升推理效率,但在大规模集群中,随机负载均衡影响缓存复用。Amazon SageMaker的有状态会话路由机制解决了这一问题,确保相似请求路由到同一节点,从而降低延迟,提高系统性能。

基于 Amazon SageMaker 有状态路由优化大规模推理集群下的 KV Cache 复用方案

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-07-08T03:57:35Z
利用 Amazon SageMaker Sticky Session 实现大语言模型推理加速

Amazon SageMaker的粘性会话路由功能通过会话绑定机制优化了大语言模型的推理性能,解决了传统架构的性能瓶颈,提升了用户体验和系统效率。该技术确保同一用户的请求路由到相同实例,实现缓存复用,降低计算开销,适用于需要保持对话上下文的应用。

利用 Amazon SageMaker Sticky Session 实现大语言模型推理加速

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-07-01T03:22:53Z
利用Amazon SageMaker AI和Amazon Bedrock优化车队运营

美国每年因分心驾驶导致数千人死亡,推动了驾驶安全的提升。商业车队利用AWS服务,通过实时监控和AI技术分析行车记录仪数据,减少事故并提高效率。该系统能够检测驾驶员的分心行为,并持续优化,以实现安全驾驶和降低成本。

利用Amazon SageMaker AI和Amazon Bedrock优化车队运营

AWS Architecture Blog
AWS Architecture Blog · 2025-05-28T18:29:26Z
2025年的机器学习:哪个平台胜出——SageMaker还是Azure ML?⚔️

在2025年构建或扩展机器学习项目时,选择AWS SageMaker或Azure Machine Learning是一个重要决策。两者在易用性、集成、性能、定价灵活性和安全合规性等方面存在差异。本文提供了详细比较,帮助开发者做出明智选择。

2025年的机器学习:哪个平台胜出——SageMaker还是Azure ML?⚔️

DEV Community
DEV Community · 2025-05-26T16:01:20Z
在 Amazon SageMaker 上部署通用 LLM API 接口服务

该方案支持与OpenAI API兼容的服务,允许客户接入Amazon SageMaker推理端点,提供流式响应和API密钥认证,简化部署流程。

在 Amazon SageMaker 上部署通用 LLM API 接口服务

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-05-23T00:59:19Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码