小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
一分钟读论文:《归一化计算下单Agent为何优于多Agent》

斯坦福大学的研究表明,在多跳推理任务中,单Agent系统的表现优于多Agent系统,尤其在计算量相同的情况下。研究指出,多Agent系统的优势主要来自于token数量的增加,而非架构本身的提升。这一发现对AI工程实践具有重要指导意义,建议在固定计算量时优先考虑单Agent架构。

一分钟读论文:《归一化计算下单Agent为何优于多Agent》

Micropaper
Micropaper · 2026-04-18T00:00:00Z
参数与FLOPs:混合专家语言模型的最佳稀疏性扩展规律

研究表明,扩大语言模型的容量可以提升性能,主要通过增加模型参数和计算量来实现。稀疏专家混合模型(MoEs)在不显著增加计算量的情况下扩展参数数量。研究发现,在不同约束条件下,存在最佳稀疏水平,能够提高训练效率和模型性能,从而为MoEs的扩展提供了更深入的理解。

参数与FLOPs:混合专家语言模型的最佳稀疏性扩展规律

Apple Machine Learning Research
Apple Machine Learning Research · 2025-07-07T00:00:00Z

本文提出了一种自适应计算剪枝方法(ACP),有效解决遗忘变换器中注意力头快速遗忘的问题。研究表明,ACP可减少约70%的计算量,提高训练吞吐量10%至35%,在长上下文中效果更为显著,且性能保持稳定。

遗忘变换器的自适应计算剪枝

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-09T00:00:00Z

减治法是一种算法模式,通过利用较小实例的解来简化复杂问题,主要包括减去常量、减去常量因子和可变规模减小三种形式。该方法广泛应用于计算最大公约数和幂函数等问题,有效降低计算量。

算法模式:减治法

"地瓜哥"博客网
"地瓜哥"博客网 · 2025-04-06T15:32:03Z
AI模型学习何时跳过图像处理,计算量减少30%且不影响性能

研究表明,AI模型通过伪Q学习框架动态调整图像处理,能在视觉任务中减少30%的计算量,且对性能影响最小。该方法利用上下文感知标记,帮助模型决定何时跳过图像处理。

AI模型学习何时跳过图像处理,计算量减少30%且不影响性能

DEV Community
DEV Community · 2025-03-22T07:13:43Z
万字长文解读Scaling Law的一切,洞见LLM的未来

Cameron R. Wolfe探讨了Scaling Law在AI研究中的影响,分析了其对大型语言模型(LLM)性能的作用。尽管Scaling Law推动了AI的发展,但顶级实验室面临瓶颈,需寻找新路径。文章强调数据和计算量的重要性,并提出未来研究方向。

万字长文解读Scaling Law的一切,洞见LLM的未来

机器之心
机器之心 · 2025-02-01T11:58:09Z

本研究探讨了语言模型中参数数量与计算量之间的关系,重点分析了稀疏混合专家模型的稀疏性对性能的影响。研究表明,优化稀疏性能够提升训练效率和模型性能,为设计更高效的架构提供了新视角。

Parameters vs FLOPs: Scaling Laws for Optimal Sparsity in Mixture-of-Experts Language Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-21T00:00:00Z

本研究提出了一种新方法,通过将注意力机制简化为多层感知机(MLP),显著降低了计算量,同时保持了可接受的性能。

使用MLP的近似注意力:针对基于注意力的多变量时间序列预测模型的剪枝策略

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-31T00:00:00Z

本研究通过引入限制玻尔兹曼机(RBM)解决了传统配置相互作用方法在计算量上的不足,提高了量子化学研究的效率和理解深度。

基于可解释限制玻尔兹曼机的配置相互作用引导采样

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-09-10T00:00:00Z

研究发现,使用简单的检索增强可以在生成时实现与微调后的大型语言模型相当的性能,计算量较小。检索还可以显著提高大型语言模型的性能,不受扩展上下文窗口大小的限制。最佳模型LLaMA2-70B在长上下文任务中表现优于其他模型。研究为选择检索增强与扩展大型语言模型提供了见解。

边写边推理:更好的长上下文检索推理模式

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-27T00:00:00Z

本文提出了一种使用神经网络学习实例依赖的启发式代理来提高在障碍物环境下的A*算法性能的方法,并进行了全面实验评估。结果显示该算法在减少计算量和保证较小的解代价方面表现出优异性能。

懒惰后继生成的路径寻找

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-27T00:00:00Z

研究发现,使用简单的检索增强可以在生成时实现与微调后的大型语言模型相当的性能,计算量较小。检索还可以显著提高大型语言模型的性能,不受扩展上下文窗口大小的限制。最佳模型LLaMA2-70B-32k在长上下文任务中表现优于其他模型。该研究为从业者提供了选择检索增强与扩展大型语言模型的见解。

大型语言模型作为下一代密集检索的基础:全面的实证评估

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-22T00:00:00Z

研究发现,使用简单的检索增强可以在生成时实现与微调后的大型语言模型相当的性能,计算量较小。检索还可以显著提高大型语言模型的性能,不受扩展上下文窗口大小的限制。最佳模型LLaMA2-70B-32k在长上下文任务中表现优于其他模型。研究为选择检索增强与扩展大型语言模型提供了见解。

多语言大海捞针:研究多语言大规模语言模型的长上下文行为

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-19T00:00:00Z
profile a deep learning model

本文讨论了程序性能分析的方法,包括计时、内存分析和使用工具。还介绍了评估深度学习模型性能的方法,包括计算量和参数量的计算。提供了FlopCountAnalysis、torch profiler和deepspeed等工具和代码示例。同时介绍了thop和stat等其他工具。

profile a deep learning model

Sekyoro的博客小屋
Sekyoro的博客小屋 · 2024-07-30T07:34:36Z
黎曼ζ函数零点密度定理的计算外包讨论

在计算机辅助证明和纯人类可读证明之间存在平衡。纯人类可读证明需要最小化计算量,而计算机辅助证明可以将验证任务外包给计算机。这两种方法都有优势,没有一种一定比另一种更好。

黎曼ζ函数零点密度定理的计算外包讨论

What's new by TerryTao
What's new by TerryTao · 2024-07-08T00:11:02Z

本文提出了一种基于学习的、实例相关的注意力机制来加速 Vision Transformers 网络,解决了由结构化注意力模式引起的语义信息丧失问题。该方法可以在保证准确率的情况下显著减少计算量,达到更优的精度-计算复杂度平衡点。结合 Token 稀疏机制,该方法可以将 Vision Transformers 网络的 FLOPs 降低超过 60%。

Fibottention: 多头多视线接纳的初级视觉表征学习

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-27T00:00:00Z

我们提出了一种在线数据选择策略来加速大规模预训练,减少模型性能所需的计算量并提高效率。在训练视觉分类器和多模态模型时,我们的方法分别减少了46%和51%的训练更新次数和25%的总计算量。在大规模图像-文本数据集上实现了新的最优效果。

通过联合示例选择进一步加速多模态学习

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-25T00:00:00Z

本文提出了一种基于学习的、实例相关的注意力机制来加速Vision Transformers网络,通过限制自注意力操作在空间上邻近的一组Token上,并评估Token之间的连接得分来解决语义信息丧失问题。该方法可以显著减少计算量,降低Vision Transformers网络的FLOPs超过60%。

视觉 Transformer 中的区域与稀疏注意力融合

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-13T00:00:00Z

本文提出了一种基于学习的、实例相关的注意力机制来加速Vision Transformers网络,通过限制自注意力操作在空间上邻近的一组Token上,并评估Token之间的连接得分来解决语义信息丧失问题。该方法可以显著减少计算量,降低Vision Transformers网络的FLOPs超过60%。

ToSA:用于高效视觉 Transformer 的令牌选择性注意力

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-13T00:00:00Z

本研究提出了一种基于小型机器学习的全局色调映射方法(TGTM),能够以较低的计算量实现HDR图像的色调映射,具有更高的峰值信噪比。

TGTM: 基于 TinyML 的高动态范围传感器全局色调映射

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-05-08T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码