小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本研究提出链式推理百科全书,以解决大型语言模型在推理策略理解方面的不足,通过自动提取标准和语义嵌入分析来提升模型性能。

链式推理百科全书:分析、预测和控制推理模型的思维方式

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-15T00:00:00Z

本研究提出了T2I-R1模型,解决了文本到图像生成中的推理策略不足问题。通过双层思维链推理和强化学习,该模型在T2I-CompBench和WISE基准上分别提升了13%和19%的表现,超越了现有最先进模型FLUX。

T2I-R1: Reinforcing Image Generation through Collaborative Semantic-level and Token-level Chains of Thought

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-01T00:00:00Z

本研究提出了一种新颖的测试时间扩展(TTS)方法,以提高视频生成质量。通过增加推理时间的计算资源和采用有效的推理策略(如"树帧"方法),显著提升了基于文本提示的视频生成效果,展示了TTS在视频生成中的潜力。

Test-Time Scaling for Video Generation: Video-T1

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-24T00:00:00Z

本研究提出了TATA框架,以解决大型语言模型在数学推理中调整策略的不足。该框架使模型能够根据自身能力自适应调整推理策略,并优化训练数据选择。实验结果表明,TATA在数学推理基准测试中表现优异,显著提升了推理效率。

Teaching Large Language Models According to Their Aptitude: Adaptive Reasoning for Mathematical Problem Solving

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-17T00:00:00Z

本研究提出电子电路模型(ECM),旨在统一解释大语言模型中的上下文学习和思维链现象。ECM通过模拟二者的相互作用,提升模型性能,优化推理策略,超越80%的顶尖人类选手,展现出显著潜力。

Electronic Circuit Model: A Unified Model for Explaining In-Context Learning and Chain-of-Thought Phenomena in Large Language Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-05T00:00:00Z

北交大等高校发布多语言大模型综述,回顾了多语言能力的进展与挑战,探讨了训练方法、推理策略及安全性等问题,并强调未来研究方向以提升多语言能力。

495篇参考文献!北交大清华等高校发布多语言大模型综述

量子位
量子位 · 2025-01-17T01:30:22Z

本研究探讨大型语言模型的归纳推理机制,发现模型的先验影响大于示例展示。评估三种推理策略在五个任务中的效果,结果显示去除示例时假设质量损失较小,突显了模型先验的潜力。

The Role of Model Priors in Real-World Inductive Reasoning

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-18T00:00:00Z

本研究提出了基于锚点的LLM (AnLLM) 模型,利用基于锚点的自注意力网络 (AnSAN) 和推理策略,将序列信息压缩到锚点令牌中,减少键/值缓存并提高推理效率。实验证明,AnLLM 在保持可比精度的同时缩减了99%的键/值缓存,并实现了3.5倍的更快推理速度。AnLLM 在计算效率和资源利用方面具有显著改善,展示了锚点式注意力方法在实时推理的潜力。

FocusLLM:通过并行解码扩展大型语言模型的上下文

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-21T00:00:00Z

SeaKR是一种自我感知知识检索模型,利用大规模语言模型的内部状态提取自我感知的不确定性,激活检索。SeaKR根据自我感知不确定性重新排序已检索的知识片段,以减少不确定性。SeaKR还利用自我感知不确定性选择不同的推理策略。实验证明,SeaKR优于自适应RAG方法。

自感知的知识检索:用于自适应检索强化生成的方法

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-27T00:00:00Z

本研究引入了基于锚点的LLM模型,利用创新的自注意力网络和推理策略,将序列信息压缩到锚点令牌中,提高推理效率。AnLLM在保持可比精度的同时缩减了99%的键/值缓存,并实现了3.5倍的更快推理速度。AnLLM在计算效率和资源利用方面具有显著改善,展示了锚点式注意力方法在实时推理中的潜力。

当线性注意力遇上自回归解码:朝着更有效和高效的线性化大型语言模型

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-11T00:00:00Z

本研究提出了基于锚点的LLM模型,利用创新的自注意力网络和推理策略,将序列信息压缩到锚点令牌中,减少键/值缓存并提高推理效率。实验证明,AnLLM在保持可比精度的同时缩减了99%的键/值缓存,并实现了3.5倍的更快推理速度。AnLLM在计算效率和资源利用方面具有显著改善,展示了锚点式注意力方法在实时推理中的潜力。

基于锚定的大型语言模型

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-02-12T00:00:00Z

本文提出了一种新的推理策略 - Reparameterized Variational Rejection Sampling (RVRS),通过引入低方差的重新参数化梯度估计器,将 VRS 变为适用于具有连续潜在变量的模型。RVRS 在计算成本和推理准确性之间提供了一个折衷方案,特别适用于具有局部潜在变量的黑盒推理。

生成模型的最优预算拒绝采样

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-11-01T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码