小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
在线教程丨 David Baker 团队开源 RFdiffusion3,实现全原子蛋白质设计的生成式突破

近年来,生成式深度学习在蛋白质设计领域取得了进展。RFdiffusion3(RFD3)模型能够生成与非蛋白质组分相互作用的蛋白质三维结构,简化了原子级约束,降低了计算开销,展现了广泛的适用性。

在线教程丨 David Baker 团队开源 RFdiffusion3,实现全原子蛋白质设计的生成式突破

HyperAI超神经
HyperAI超神经 · 2025-12-31T08:31:43Z
在线教程丨David Baker团队开源RFdiffusion3,实现全原子蛋白质设计的生成式突破

RFdiffusion3(RFD3)是诺奖得主David Baker团队开发的新型蛋白质设计模型,能够在复杂的非蛋白质环境中生成蛋白质的三维构象。该模型显式建模所有聚合物原子,简化了原子级约束,适用于酶设计等任务,并显著降低计算开销。

在线教程丨David Baker团队开源RFdiffusion3,实现全原子蛋白质设计的生成式突破

HyperAI超神经
HyperAI超神经 · 2025-12-31T03:01:06Z
CommVQ:用于KV缓存压缩的交换向量量化

大型语言模型在长上下文应用中面临GPU内存瓶颈,提出了交换向量量化(CommVQ)方法,通过轻量编码器和代码本压缩KV缓存,显著降低内存使用。该方法结合旋转位置嵌入和期望最大化算法,减少计算开销并保持高准确性。实验结果显示,2位量化下FP16 KV缓存大小减少87.5%,1位量化时准确性损失极小,使得在单个RTX 4090 GPU上运行LLaMA-3.1 8B模型成为可能。

CommVQ:用于KV缓存压缩的交换向量量化

Apple Machine Learning Research
Apple Machine Learning Research · 2025-07-11T00:00:00Z

本研究提出自适应自我恢复推理(ASRR)框架,旨在解决大型推理模型在简单任务中因冗余推理而产生的计算开销问题。ASRR通过抑制不必要的推理,实现隐式恢复,显著提高推理效率和安全性。实验结果表明,ASRR在多个基准测试中有效减少推理预算,提升效率,且性能损失微小。

When to Continue Thinking: Adaptive Thinking Mode Switching for Efficient Reasoning

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-21T00:00:00Z

本研究提出自我调节微调(SBT)框架,旨在解决大型推理模型的过度思考问题。该方法通过内部调节推理过程,减少冗余推理,降低计算开销,令牌消耗减少高达60%,同时保持准确性。

Let Large Language Models Break Free from Overthinking via Self-Regulated Optimization

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-20T00:00:00Z

本研究提出LLaCTR方法,解决了现有LLM在大规模实例中点击率预测的计算开销问题。通过自监督微调提取轻量级语义知识,LLaCTR在有效性和效率上优于现有方法,展现出良好的应用潜力。

The Importance of Domain: A Lightweight LLM-Enhanced Click-Through Rate Prediction Method

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-20T00:00:00Z

本研究提出了一种高效的迭代数据选择框架LEAD,旨在降低计算开销。LEAD通过准确估计样本效用,消除额外的模型推理需求,从而显著提升模型性能并缩短训练时间。

LEAD: An Efficient Iterative Data Selection Framework for Instruction Tuning of Large Language Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-12T00:00:00Z

本研究提出了一种新方法,通过在小数据集上搜索量化策略并推广到大规模数据集,解决了混合精度量化方法的计算开销问题。实验结果表明,该方法在CIFAR10数据集上达到了与ImageNet相当的准确度,同时显著降低了计算成本,效率提高了150%。

Learning from Loss Landscape: Achieving Generalizable Mixed-Precision Quantization via Adaptive Sharpness-Aware Gradient Aligning

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-08T00:00:00Z

本研究提出了一种新的数据混合策略,解决了现有方法在预定数据领域和计算扩展性方面的不足。在R%计算开销下,该策略的性能达到了或超过了最先进的水平。

R&B: 域重组与数据混合平衡以提高基础模型训练效率

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-01T00:00:00Z

本研究提出了一种轻量级验证方法LiLaVe,旨在降低大语言模型验证器的计算开销和资源消耗。LiLaVe通过提取基础LLM的隐藏状态中的正确性信号,显著提升生成任务的准确性和效率,适用于推理密集型应用。

Lightweight Latent Verifiers for Efficient Meta-Generation Strategies

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-23T00:00:00Z

本研究总结了高效推理的最新进展,针对复杂逻辑任务的高计算开销,提出了压缩推理链、开发紧凑语言模型和提升推理速度三种解决方案。

Efficient Inference Models: A Review

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-15T00:00:00Z

本研究提出了“必要时才争辩”框架,以降低多智能体协作在提升大型语言模型推理能力时的计算开销和错误风险。该框架通过选择性激活争辩过程,提高效率并保持或超越现有系统性能,实验结果表明其能减轻错误传播,促进可靠响应的整合。

Debate Only When Necessary: Adaptive Multi-Agent Collaboration for Efficient LLM Reasoning

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-07T00:00:00Z

本研究提出了一种新的参数高效调优(FPET)方法,旨在解决大型预训练模型的推理延迟和计算开销问题。FPET通过引入令牌冗余减少模块,提高了推理速度和训练效率,同时保持高存储效率,实验结果表明其在推理速度和内存效率上优于传统方法。

Faster Parameter-Efficient Tuning with Token Redundancy Reduction

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-26T00:00:00Z

本文提出了一种混合级指令注入策略(HICom),旨在降低多模态大语言模型处理视频帧的计算开销。HICom通过指令条件指导压缩,保留用户关注的信息。实验结果表明,HICom在减少令牌的同时,视频理解能力显著提升,性能平均提高2.43%,并节省了78.8%的令牌。

Hybrid-Level Instruction Injection for Video Token Compression in Multi-modal Large Language Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-20T00:00:00Z

本研究探讨了大型语言模型(LLMs)在复杂任务中的推理效率,特别是长推理链的计算开销。论文系统性调查了提升LLMs推理效率的多种方法,包括模型、输出和输入提示的优化,以及高效数据的培训。

Stop Overthinking: A Survey on Efficient Reasoning for Large Language Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-20T00:00:00Z

本研究提出了SenseExpo框架,基于轻量级预测网络,克服了传统方法在计算开销和环境泛化方面的局限性。在KTH数据集上,该框架实现了约67.9%的时间缩减,表现显著优于类似方法。

SenseExpo: An Efficient Autonomous Exploration Framework Based on Lightweight Neural Networks

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-20T00:00:00Z

本研究提出FR-Spec框架,解决了大词汇量语言模型的低效率问题,通过压缩词汇空间和优化候选选择,减少了75%的计算开销,并在多个数据集上实现了1.12倍的加速。

FR-Spec: 通过频率排名的推测采样加速大词汇量语言模型

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-20T00:00:00Z

本研究提出了一种基于特征相关性的方法,解决了GNN力场模型在分布外数据上的不稳定性问题。研究表明,特征相关性与模型稳定性呈负相关,并设计了动态损失系数调度器,显著提高了模型稳定性,计算开销保持在3%以下。

通过减少特征相关性提高GNN力场模型的稳定性

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-18T00:00:00Z

本研究提出了一种新的成对Shapley值框架,旨在解决可解释人工智能中的可解释性和可扩展性问题。该方法通过比较特征归因与数据实例对,提供更直观的解释,降低计算开销,提升XAI的实际应用能力。

从抽象到可行动:用于可解释人工智能的成对Shapley值

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-18T00:00:00Z

本研究提出FLAME方法,旨在解决大型语言模型在用户交互中的审核挑战,增强其对抗性攻击的抵抗力,降低攻击成功率,同时保持低计算开销。

FLAME:灵活的LLM辅助内容审核引擎

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-13T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码