Meta超级智能实验室发布了首篇论文,提出了REFRAG框架,旨在优化RAG性能,最高可加速30倍。该框架通过压缩、感知和扩展来减少计算负担,保留关键信息,从而提升效率,适用于多种任务。
Anthropic将Claude Sonnet 4升级至支持100万标记的上下文长度,提升五倍。此功能已公开测试,适用于Anthropic API和Amazon Bedrock,方便用户处理更大数据集。尽管此升级有助于上下文感知代理,但也增加了计算负担,开发者对此的实际价值看法不一。
本研究提出了一种双向强化学习框架,旨在解决多模态病理图像理解中的推理能力不足和计算负担问题。该方法通过无监督学习和动态令牌分配,在多项病理任务中平均提高了41.7%的性能,并减少了70.3%的推理成本。
本研究提出了一种新的协作分布式联邦学习方案,通过将模型分为三部分,实现客户端和服务器的并行训练与聚合,显著降低了计算和通信负担,提高了模型准确性。实验结果表明,该方案优于现有方法。
本研究提出了DropPEFT框架,旨在解决联邦微调在资源受限设备上的计算和内存负担问题。通过随机停用层和自适应dropout比率,显著提升了模型的收敛速度并降低了内存占用。
本研究提出了一种新颖的扩散增强检索(DAR)框架,旨在解决现有交互式文本到图像检索方法的计算负担和适应性问题,从而显著提高查询与图像的对齐精度。
本研究提出了一种新的长输入微调框架(LIFT),旨在解决大型语言模型在长上下文理解中的挑战,提升其在相关任务中的表现,并减轻计算负担。
本研究提出了一种局部曲率平滑方法,解决了基于评分的扩散模型训练中的计算负担,特别是雅可比迹的计算问题。该方法显著提升了样本生成性能,尤其在高分辨率图像生成方面表现突出。
本研究提出了一种感知模型,动态优化超分辨率技术,考虑人类视觉系统对细节敏感度的差异,以提高效率并降低计算负担。
本研究提出了一种名为MBDRes-U-Net的轻量级模型,旨在降低脑肿瘤分割的计算负担。该模型通过多分支残差块和融合注意力机制,利用多模态图像的局部特征,显著提升了分割性能并减少了计算开销。
本研究提出FedPT框架,通过仅访问模型输出预测,解决大型预训练语言模型微调时的隐私和计算负担问题,适用于资源有限设备。实验表明,FedPT在保持性能的同时,大幅降低计算、通信和内存开销,具有广泛应用潜力。
本文通过蒸馏各种DRL算法并研究其蒸馏效果的方式,旨在减少深度模型的计算负担,在保持性能的同时实现高效与快速。研究目标是提供一个用于评估使用KD技术优化的不同DRL算法性能的基准。该研究有望推动DRL领域的发展。
本研究提出了一种名为MLLM-FL的新框架,用于解决联邦学习中的性能下降问题。研究表明,MLLM-FL能够显著提升性能,并降低隐私泄露风险和本地设备的计算负担。这为联邦学习方法带来了新的突破。
本文提出了一种基于GNN的方法,利用语义和局部几何形状来指导点云注册候选项的识别。通过识别语义实例关系,减少了点云注册的计算负担。在KITTI测距数据集上测试,相较于基准方法,实现了竞争性的准确度和更高的轨迹平滑度,同时依赖更少的网络参数。
本文研究了深度强化学习与知识蒸馏相结合的潜力,通过蒸馏各种DRL算法并研究其蒸馏效果,旨在减少深度模型的计算负担,保持性能的同时实现高效与快速。该研究有望促进DRL领域的发展。
该文介绍了一种名为语义推理(SINF)的新框架,通过利用潜在表示中的内在冗余来减少计算负担,可以识别物体属于的语义簇并执行与该语义簇相关的子图进行推理。在基准测试中,SINF 可以减少 VGG19、VGG16 和 ResNet50 的推理时间,同时只损失少量精度。
本文介绍了一种早期预测机制Exit Predictor,通过引导困难的数据样本绕过早期出口的计算,降低设备边缘混合推理系统中早期退出网络的计算负担。实验结果表明,该方法在准确性和设备计算负担之间取得了更好的折衷效果。
完成下面两步后,将自动完成登录并继续当前操作。