本文探讨改进的 Gram-Schmidt 正交化方法,旨在解决经典方法中的数值不稳定性和误差。改进方法在每次计算后立即更新向量,保持正交性,从而提高数值稳定性。
本文介绍了一种高效计算方差的算法,通过同时计算均值和均方实现一次遍历。由于浮点数计算可能导致数值不稳定,尤其在方差小而均值大时,可能出现灾难性取消。为提高算法的数值稳定性,可以采用数据平移技巧,保持方差不变。
statsrust 是一个高性能的 Rust 统计分析库,注重数值稳定性和用户友好的 API。由于缺乏简单全面的统计库,作者基于 Python 标准库创建了此库,期待用户反馈。
本研究提出了一种新颖的格子玻尔兹曼方法(LBM)与图神经网络(GNN)结合的方案,旨在提高流体动力学模拟的数值稳定性和准确性,并在高雷诺数下保持良好的守恒特性。
深度学习模型训练中,数值计算误差传播可能导致梯度爆炸或消失。本文探讨了提高数值稳定性的方法,包括重写数学公式、采用不同算法、提高计算精度和限制输入范围等策略,以增强计算结果的准确性和稳定性。
本研究提出了一种新颖的隐式物理集成神经可微求解器Im-PiNDiff,旨在解决混合神经-物理建模在长时间预测中的不稳定性和误差累积问题。该方法通过混合梯度传播策略实现可扩展训练,显著降低内存和运行时间成本,并在多种时空偏微分方程系统中展现出优越的预测性能和增强的数值稳定性。
本研究提出了一种基于代数分级的分级神经网络(GNN)框架,克服了传统神经网络在特征重要性处理上的局限性,定义了分级空间的特性,并提升了计算的数值稳定性和梯度缩放,为机器学习和光子系统的应用开辟了新方向。
本研究提出DINT变换器,改进了DIFF变换器在全局上下文建模和数值稳定性方面的不足,通过差分-积分机制增强了对全局依赖的捕捉能力。实验结果表明,DINT在长上下文语言建模和关键信息检索中表现优异。
本文探讨了传统Softmax注意力在推理令牌长度增加时的数值不稳定和性能下降问题。提出了一种新颖的Softplus注意力机制,结合动态长度尺度因子和重新加权,显著提升了大型语言模型在处理长序列时的稳定性和性能。
本研究探讨了非线性动力模型在语言数据建模中的参数选择和数值稳定性,提出了一种基于功率律的参数化方法,应用于立方体模型,提升了对言语产生中非线性手势动态的模拟准确性,为言语测量工具的设计提供了新视角。
这篇论文提出了一种非参数基线模型用于时间序列预测,通过从经验分布中采样生成预测,避免了传统模型的数值稳定性问题。该方法还开发了利用多个相关时间序列自动学习采样策略的全局版本。实验证明,该方法在所有数据集上表现出一致且合理的性能,是一个强大的基准模型。
本文提出了两种新的算法,专为离散时间确定有限时域非线性最优控制问题或轨迹优化问题而设计。这些算法受到了概率最优控制理论的启发,将最优控制重新制定为概率推断问题。通过应用这些算法,得到的概率策略的固定点迭代收敛于确定性最优策略。这些算法在结构上与微分动态规划算法和使用sigma点方法避免直接梯度评估的方法最为接近。这些算法在迭代中改善了探索和利用之间的平衡,实现了更好的数值稳定性和加速收敛。
该研究提出了一种使用隐式函数定理(IFT)的新方法,以区分非凸约束离散时间最优控制(COC)问题中的最优轨迹。该方法易于并行化处理、可扩展性显著提高、直接计算向量雅可比积以及相较于以前的方法具有改进的数值稳定性。
完成下面两步后,将自动完成登录并继续当前操作。