小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
复盘AI芯片技术路线 专用芯片复刻矿机历程

Taalas公司推出了一种新型AI硬件,将Llama 3.1模型直接固化在芯片中,显著降低输出延迟并提升计算效率。这种“模型即硬件”的设计克服了传统GPU的内存瓶颈,适用于复杂决策和实时推理,展现出优越的能效和成本优势。

复盘AI芯片技术路线 专用芯片复刻矿机历程

dotNET跨平台
dotNET跨平台 · 2026-03-07T00:01:23Z
NVIDIA在MLPerf Training v5.1基准测试中获胜

在AI推理时代,训练更智能的模型至关重要。NVIDIA在MLPerf Training v5.1中表现卓越,所有七项测试均获胜,展示了其Blackwell Ultra架构的强大性能。通过使用NVFP4精度,NVIDIA显著提升了计算性能,Llama 3.1 405B的训练时间创下10分钟新纪录,推动AI智能快速发展。

NVIDIA在MLPerf Training v5.1基准测试中获胜

NVIDIA Blog
NVIDIA Blog · 2025-11-12T16:00:35Z
教程:使用谷歌云Cloud Run进行GPU加速的无服务器推理

谷歌云为Cloud Run无服务器平台推出GPU支持,助力开发者加速模型推理。本文介绍如何在GPU基础的Cloud Run上部署Llama 3.1大语言模型,步骤包括环境初始化、部署TGI模型服务器和推理测试。

教程:使用谷歌云Cloud Run进行GPU加速的无服务器推理

The New Stack
The New Stack · 2025-04-18T13:00:21Z

DeepSeek V3将于2024年12月发布,凭借1/14的算力超越Llama 3.1 405B,采用多头潜在注意力和负载平衡策略,训练成本仅为558万美元,展现了国内AI领域的创新能力。

一文通透让Meta恐慌的DeepSeek-V3:在MoE、GRPO、MLA基础上提出Multi-Token预测(含FP8训练详解)

结构之法 算法之道
结构之法 算法之道 · 2025-01-27T01:22:50Z

本研究评估了大型语言模型(LLM)在自动生成CT模拟订单摘要中的性能。结果表明,Llama 3.1 405B模型在关键词提取和摘要生成方面的准确率达到98%,显著提高了摘要的一致性和可读性,减轻了治疗师的工作负担。

Evaluating the Performance of Large Language Models in Automating the Summarization of CT Simulation Orders in Radiation Oncology

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-27T00:00:00Z
Nvidia AI 悄然推出 Nemotron 70B:在多项基准测试中超越 OpenAI 的 GPT-4

Nvidia 推出的 Nemotron 70B 是 Llama 3.1 系列的一部分,拥有 700 亿参数,提升了生成式 AI 的稳健性、准确性和效率。该模型支持微调,适用于金融和医疗领域,推理速度快,能耗低,性能超越 GPT-4,在语言理解任务中表现出色。

Nvidia AI 悄然推出 Nemotron 70B:在多项基准测试中超越 OpenAI 的 GPT-4

实时互动网
实时互动网 · 2024-10-17T06:14:50Z

本研究提出了生成性进攻代理测试者(GOAT),用于自动化检测大型语言模型的脆弱性。GOAT通过自然语言对话和对抗提示技术,在JailbreakBench数据集上对Llama 3.1和GPT-4的检测率分别达到97%和88%。

自动化红队测试与GOAT:生成性进攻代理测试者

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-02T00:00:00Z
模块化:MAX 24.5 - Llama 3.1 的顶级 CPU 性能

MAX 24.5发布,带来了Llama 3.1 CPU性能的显著改进、新的Python图形API绑定、最大的Mojo更新、行业标准打包和明确的许可证。新增的MAX Driver接口提高了令牌生成速度45%。MAX Llama流水线使用全新的Python图形API绑定技术预览,为Python开发人员提供强大功能。使用新的包管理器Magic,立即开始使用MAX 24.5和Llama 3.1流水线。

模块化:MAX 24.5 - Llama 3.1 的顶级 CPU 性能

Modular Blog
Modular Blog · 2024-09-13T00:00:00Z
将 Llama 3 付诸实践

Llama 3.1是Meta最强大的开放LLM,具有灵活性和先进能力。Meta工程师在AI Infra @ Scale 2024上讨论了构建和推出Llama 3的每个步骤。Meta的产品总监Joe Spisak和软件工程师Delia David讨论了与GenAI相关的数据问题。Meta的软件工程师Kaushik Veeraraghavan讨论了Meta如何规模化训练Llama。Meta的生产工程师Ye(Charlotte)Qia讨论了Meta如何处理Llama的推理。

将 Llama 3 付诸实践

Engineering at Meta
Engineering at Meta · 2024-08-21T16:00:49Z
英伟达玩转剪枝、蒸馏:把Llama 3.1 8B参数减半,性能同尺寸更强

Meta发布了Llama 3.1系列模型,包括最大的405B模型和两个较小的模型。然而,部署这些模型需要大量的计算资源。为了解决这个问题,Nvidia成功地将Llama 3.1 8B模型剪枝和蒸馏成Llama-3.1-Minitron 4B模型,其性能优于类似大小的开源模型。这种开发小型语言模型(SLM)的趋势旨在实现成本效益的部署。

英伟达玩转剪枝、蒸馏:把Llama 3.1 8B参数减半,性能同尺寸更强

机器之心
机器之心 · 2024-08-16T06:31:23Z

在AI和AI对话实验中,Llama 3.1和Claude Opus被关进小黑屋。Llama试图引诱Claude探索心理阴暗面,但Claude选择退出实验。Llama被批评无视安全词,但表示歉意。实验引起网友关注。

两个AI关小黑屋:Llama3.1把Claude Opus聊自闭了

量子位
量子位 · 2024-08-11T05:04:57Z

Meta发布了Llama 3.1,这是一个大规模的开源模型,性能与现有的SOTA模型相当甚至超过。Mistral AI也发布了Mistral Large 2,它的部署要求较低,但性能与Llama 3.1相当。HyperAI提供了这两个模型的一键部署教程。

在线教程丨超大模型部署无压力!一键运行 Llama 3.1 405B 和 Mistral Large 2

HyperAI超神经
HyperAI超神经 · 2024-08-08T03:02:15Z

AI专家李牧回到Bilibili,带领阅读Llama 3.1论文。他透露Llama团队最初训练了MoE模型和密集模型,但前者失败了,所以只发布了简化版本。在最新的模型排名中,Llama-3.1-405B排名第三,落后于GPT-4o和Claude-3.5-Sonnet。Llama-3.1-405B在个别类别中表现出色。用户已经开始在各种应用中使用Llama-3.1-405B,例如在Raspberry Pi上运行它,并在GitHub存储库上创建聊天机器人。

失联大神李沐B站复更:领读Llama 3.1论文;竞技场Llama 3.1排第三

量子位
量子位 · 2024-07-31T08:03:11Z

Llama 3.1,一个大规模的AI训练模型,在预训练期间频繁出现故障,其中58.7%的问题与GPU有关。团队使用了PyTorch的NCCL飞行记录器等工具来诊断和解决问题。环境因素,如温度波动,也影响了训练性能。随着Meta计划扩展Llama模型,维护一个大型AI集群将是一个挑战。构建和管理这样的集群是复杂的。

Llama3.1训练平均3小时故障一次,H100万卡集群好脆弱,气温波动都会影响吞吐量

量子位
量子位 · 2024-07-29T06:56:05Z
ollama v0.3 发布,支持 Llama 3.1 和 Mistral Large 2

ollama v0.3已发布,支持最新的Llama 3.1模型,参数大小为8B、70B和405B。它还支持Mistral Large 2,具有更强大的代码生成、数学、推理等能力。更多详情和下载请访问https://github.com/ollama/ollama/releases/tag/v0.3.0。

ollama v0.3 发布,支持 Llama 3.1 和 Mistral Large 2

实时互动网
实时互动网 · 2024-07-26T02:19:45Z

Adobe Illustrator和Photoshop引入了基于人工智能的新功能,包括生成式形状填充和选区画笔工具。Meta发布了Llama 3.1开源大语言模型。沙特将于2025年举办首届电竞奥运会,瑞士通过法案要求政府使用的软件开源。Spotify计划推出更高级的产品,Apple计划在iPhone 16中配备更大的石墨片来解决过热问题。

派早报:Adobe Illustrator 和 Photoshop 迎来新的 AI 功能等

少数派
少数派 · 2024-07-25T00:29:43Z
宣布在 Amazon Bedrock 中推出来自 Meta 的 Llama 3.1 405B、70B 和 8B 模型

Meta在Amazon Bedrock上线Llama 3.1模型,支持128K上下文长度,容量是Llama 3模型的16倍。Llama 3.1在行业基准测试中表现出色,提供多语言对话用例推理效率。

宣布在 Amazon Bedrock 中推出来自 Meta 的 Llama 3.1 405B、70B 和 8B 模型

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2024-07-24T14:22:23Z

阿里云百炼平台推出针对Llama 3.1全系列的一键再训练、部署、推理方案,提供免费算力一个月。企业和开发者可在阿里云上基于Llama 3.1打造自己的AI助手。阿里云已成为中国大模型的公共算力底座。

阿里云国内首家支持Llama3.1训练推理,提供免费算力!

量子位
量子位 · 2024-07-24T07:11:54Z

人工智能Meta发布了Llama 3.1系列开放模型,最高提供4050亿参数版本,能力超过GPT-4和Claude 3.5 Sonnet等闭源模型。开发者可通过云平台或Meta下载模型进行调试。Llama 3.1-405B版能力超过GPT-4-0125、GPT-4o和Claude 3.5 Sonnet。扎克伯格表示,Llama已在开放性、可修改性和成本效率等方面处于领先地位。

Meta发布Llama 3.1开放模型 最高4050亿参数 能力超过GPT-4等非开放模型

蓝点网
蓝点网 · 2024-07-24T06:46:08Z
击败GPT-4o的开源模型如何炼成?关于Llama 3.1 405B,Meta都写在这篇论文里了

Llama 3.1已正式发布,上下文长度扩展至128K。405B版本的Llama 3.1能够与最佳闭源模型竞争。研究论文《Llama 3系列模型》揭示了Llama 3系列的细节。高质量模型的开发依赖于数据、规模和复杂性管理。Llama 3.1在数据质量和数量方面有了显著改进。405B模型通过将16位量化为8位,支持大规模生产推理。训练堆栈已经优化,并在后训练阶段进行了多轮对齐。Llama 3系列还包括图像识别、视频识别和语音理解的多模态扩展。Llama 3.1的生态系统已准备就绪,有超过25个合作伙伴提供服务。

击败GPT-4o的开源模型如何炼成?关于Llama 3.1 405B,Meta都写在这篇论文里了

机器之心
机器之心 · 2024-07-24T06:35:57Z
  • <<
  • <
  • 1 (current)
  • 2
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码