小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
使用扩散生成文本(以及使用LLMs的投资回报)

本期节目包含两次采访。第一部分,Ryan与Inception的CEO Stefano Ermon讨论扩散语言模型的生成速度和准确性。第二部分,Ryan与Roomie的主席Aldo Luevano探讨Roomie在物理和软件AI模型构建中的ROI优先方法,以帮助公司评估机器人和AI的影响。

使用扩散生成文本(以及使用LLMs的投资回报)

Stack Overflow Blog
Stack Overflow Blog · 2026-02-03T08:40:00Z

华人团队研究表明,扩散语言模型在token数量受限时,其数据潜力超过自回归模型三倍,且未出现性能饱和。该模型通过双向建模和高计算密度提升学习效果,且在过拟合情况下性能仍可能持续提升。

华人团队终结Token危机:扩散模型数据潜力超自回归三倍

量子位
量子位 · 2025-08-13T09:19:44Z

Mercury是一种高效的扩散语言模型,生成代码速度比传统模型快10倍,达到1109 tokens/秒。它采用“从噪声到结构化输出”的方法,具备动态纠错能力,提升生成灵活性。Mercury结合Transformer架构,优化硬件利用,解决CI/CD速度瓶颈。

扩散语言模型写代码!速度比自回归快10倍

量子位
量子位 · 2025-07-10T09:18:27Z
Dream 7B:一种强大且开放的扩散语言模型

Dream 7B是一种新型的扩散语言模型,采用去噪方法,能够更好地处理上下文,提高生成灵活性和规划能力。与传统模型相比,Dream 7B在多项任务中表现优异,显示出扩散模型可能会取代自回归模型。

Dream 7B:一种强大且开放的扩散语言模型

The New Stack
The New Stack · 2025-06-03T17:00:59Z
通过自回归模型的适应扩展扩散语言模型

扩散语言模型(DLMs)旨在克服自回归模型的局限性。本文提出通过适应自回归模型构建文本扩散模型,展示了自回归与扩散建模目标之间的联系,并介绍了一种持续预训练方法。实验结果表明,转换后的模型在语言建模和推理基准上表现优异,超越了早期的DLMs,并与自回归模型竞争。

通过自回归模型的适应扩展扩散语言模型

Apple Machine Learning Research
Apple Machine Learning Research · 2025-04-16T00:00:00Z

本文介绍了一种基于扩散语言模型的文本导向分子生成方法(TGM-DLM),该方法克服了自回归方法的局限性,通过两阶段的扩散生成过程更新SMILES字符串中的标记嵌入。实验证明,TGM-DLM模型在生成具有特定属性的连贯准确分子方面优于自回归模型MolT5-Base,无需额外数据资源,为药物发现和相关科学领域开辟新途径。

基于扩散语言模型的文本引导分子生成

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-02-20T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码