小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
将 Florence-2 部署到 Inferentia2 的实战指南

本文介绍了如何将Florence-2模型部署到Inferentia2,采用Stage-wise编译、Bucket策略和BF16优化,实现了252ms的延迟和8.18 QPS的吞吐量,推理成本比GPU降低38%。Florence-2具备零样本能力,适用于电商和仓储等场景,显著降低了物品分类的运维成本和复杂度。

将 Florence-2 部署到 Inferentia2 的实战指南

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2026-04-03T09:55:46Z
Amazon Inf2 上的 DeepSeek-R1 蒸馏模型:监控与评估实践

DeepSeek-R1模型将在2025年春节发布,用户可通过亚马逊云科技多种方式部署。文章探讨了如何评估模型推理性能,使用Inferentia2作为测试环境,并介绍了vLLM与NxD推理库的集成与监控方法,强调了性能指标的重要性。

Amazon Inf2 上的 DeepSeek-R1 蒸馏模型:监控与评估实践

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-04-15T02:44:08Z
使用亚马逊云科技自研芯片 Inferentia2 部署 DeepSeek R1 Distillation 模型(二)

亚马逊云科技将在2025年1月推出DeepSeek系列大模型,用户可通过多种方式部署DeepSeek-R1模型。文章介绍了如何在SageMaker上快速部署DeepSeek-R1-Distill模型,包括创建Docker容器和在线推理的步骤。

使用亚马逊云科技自研芯片 Inferentia2 部署 DeepSeek R1 Distillation 模型(二)

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-02-14T08:57:04Z
使用亚马逊云科技自研芯片 Inferentia2 部署 DeepSeek R1 Distillation 模型(一)

亚马逊云科技将于2025年1月推出DeepSeek系列大模型,用户可通过多种方式部署DeepSeek-R1模型。该模型可在自研芯片Inferentia2上高效运行,支持Docker容器和在线推理,服务覆盖多个地区,具备价格优势,满足全球客户需求。

使用亚马逊云科技自研芯片 Inferentia2 部署 DeepSeek R1 Distillation 模型(一)

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-02-12T03:17:18Z
摆脱 GPU 资源束缚,Amazon Inf2 让大模型推理更高效

大语言模型的兴起受到GPU资源紧缺的限制。亚马逊云科技的Inferentia2芯片提供了高效解决方案,结合vLLM框架,提升了推理速度和效率。在Inf2实例上部署Mistral 7B模型,通过API提供推理服务,解决了GPU不足的问题。

摆脱 GPU 资源束缚,Amazon Inf2 让大模型推理更高效

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2024-10-15T15:03:37Z
在 Amazon SageMaker 上使用 AWS Inferentia2 和 AWS Trainium 以最低成本实现高性能的生成式人工智能推理

本文介绍了如何使用Amazon SageMaker和LMI容器在AWS Inferentia2上部署生成式人工智能模型GPT4ALL-J。作者演示了如何使用DJLServing和transformers-neuronx加载模型、对模型进行分区和提供服务。Inf2实例提供了在AWS上运行生成式人工智能模型的最具成本效益的方式。

在 Amazon SageMaker 上使用 AWS Inferentia2 和 AWS Trainium 以最低成本实现高性能的生成式人工智能推理

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2023-09-13T06:55:17Z
在 Amazon SageMaker 上使用 AWS Inferentia2 实现 AI 作画

本文介绍了在SageMaker环境中使用Inf2实例部署Stable Diffusion V2.1模型的步骤和优势。包括Neuron SDK和Stable Diffusion模型的概述,Inf2实例支持的数据类型和DJL-Serving的使用,模型编译的步骤和代码内容,以及如何准备部署脚本并使用SageMaker部署推理节点。通过测试验证了模型的推理性能。

在 Amazon SageMaker 上使用 AWS Inferentia2 实现 AI 作画

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2023-06-26T02:03:53Z
使用AWS Inferentia2加速Hugging Face Transformers

本文介绍了AWS Inferentia2加速Hugging Face Transformers的方法,提供了前所未有的吞吐量、延迟、每瓦性能和可扩展性。通过与AWS的合作,Hugging Face优化了其模型以在Inferentia2上运行,性能比Inferentia和NVIDIA A10G GPU都要好。这个突破为更广泛的受众提供了高质量的机器学习模型,实现了人工智能的可访问性。

使用AWS Inferentia2加速Hugging Face Transformers

Hugging Face - Blog
Hugging Face - Blog · 2023-04-17T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码