Today’s pressures mean supply chain footprints need more flexibility. Our analysis of 188 KPIs across industries reveals which sectors are most exposed and how companies can start responding.
As integrated software vendors come of age, banks, fintechs, payment processors, networks, and acquirers can maximize growth by aligning with their markets’ ISV maturity levels.
本研究提出了一种新的语音推测解码(SSD)框架,旨在解决自回归语音合成模型的推理延迟问题。SSD通过轻量级草稿模型生成候选标记序列,推理速度提高了1.4倍,同时保持了高保真度和自然性。
本研究提出了BanditSpec框架,解决了推测解码中前缀令牌配置固定的问题。通过将超参数选择视为多臂强盗问题,设计了两种算法,实验结果表明其在文本生成中优于现有方法,提高了语言模型的推理效率。
本研究提出了一种基于A*搜索算法的解码推理策略,优化了固定计算预算的利用。实验结果表明,该方法在保持大模型性能的同时,令牌使用量减少了3倍,计算通行次数减少30%,展示了结构化搜索在推理中的优势。
本研究提出了一种视觉引导解码方法,利用大型语言模型生成文本提示,以指导图像生成模型。该方法通过CLIP得分确保提示与用户视觉概念一致,提升了提示生成的可解释性和灵活性。实验结果表明,该方法在生成可理解且相关的提示方面优于现有技术,增强了文本到图像模型的互动可控性。
本研究提出了一种新型少样本编码解码方法,解决了传统视频监控语义解码对大量样本的依赖。通过提取草图作为语义信息并结合图像翻译网络,显著提升了视频重构性能,降低了存储和传输成本。
本研究提出了一种高效对比解码(ECD)方法,旨在减少大型视觉语言模型(LVLMs)生成的幻觉性响应。实验结果表明,ECD显著提高了回答的上下文准确性,并在基准测试中优于现有方法。
本研究揭示了对比解码策略在多模态大语言模型中解决幻觉问题的局限性,尽管表面上性能有所提升,但这些提升实际上是误导性因素所致,未能有效抑制幻觉。研究挑战了对比解码的有效性,并为更好的解决方案提供了新方向。
本研究分析了大型语言模型(LLM)在多跳问题回答中的解码方法,提出结合ReAct框架与解码策略以提高答案准确性,特别是在推理和外部知识获取方面,解决了因事实不准确导致的“幻觉”现象。
本研究提出了一种对角解码方法,解决自回归Transformer模型在视频生成中的速度瓶颈。该方法通过利用时空相关性,实现帧内并行解码,推断速度提升最高可达10倍,同时保持视觉质量。
本研究提出了φ-解码策略,通过前瞻性采样和聚类优化推理时间,提升自回归生成方法的效率和性能。实验结果表明,φ-解码在多个基准测试中优于现有方法,具备良好的通用性和可扩展性。
本研究提出HICD方法,旨在改善大型语言模型中的幻觉现象。通过选择关键注意力头并分散其注意力,HICD显著提升了上下文完整性和知识回忆的准确性,为降低幻觉提供了有效策略。
本研究提出了一种新的推测解码方法,利用MXFP4模型作为草稿,显著提升了大语言模型的推理速度,最高可达2.72倍的性能提升,为加速推理提供了新思路。
本文讨论了视觉语言模型中的视觉幻觉问题,提出了一种新方法——感知放大器(PM),通过迭代隔离相关视觉标记并放大区域,增强模型的视觉分析能力,从而提高语言生成的准确性和合理性。
本研究提出了RASD方法,结合检索技术与推测解码,解决了异域场景中解码效果差和验证时间成本高的问题。实验结果表明,RASD在多个任务上实现了推理加速,并具备良好的可扩展性。
本文提出了一种迭代价值函数优化框架,旨在解决基于人类反馈的强化学习在语言模型输出中的高计算成本和不稳定性问题。该方法通过蒙特卡洛价值估计和策略优化,在文本摘要和多轮对话等任务中显著提高了效果并降低了计算成本。
本研究提出了一种前向合作后向(FCB)学习策略,旨在克服神经网络训练中单一反向传播的局限性。通过设计多编码单解码神经网络模型,该方法在数据降维中表现优异,有效保留数据细节,增强分类分析支持。
本研究提出了一种高效的草拟模型,解决了大语言模型在投机解码中的记忆需求、短训练数据与长上下文推理的挑战,显著提升了长上下文任务的性能并减少了推理延迟。
本研究提出了一种即时偏好对齐方法,有效解决大型语言模型生成与人类价值观对齐的效率问题。实验结果表明,该方法在对齐任务中表现优异,具备高效性和有效性。
完成下面两步后,将自动完成登录并继续当前操作。