求解带有神经网络的偏微分方程过程中的损失跃迁
原文中文,约300字,阅读约需1分钟。发表于: 。通过研究不同损失函数对神经网络解决偏微分方程的训练的影响,我们发现从数据损失到模型损失切换时会出现稳定的损失跃变现象, 进一步实验证明这一现象源于神经网络在不同损失函数下的频率偏好,这为研究神经网络在解决偏微分方程时的内在机制提供了有价值的视角。
利用物理知识驱动的深度学习方法解决异质固体中的参数化偏微分方程,通过建立热导率、温度和热流之间的联系,使用离散弱形式的损失函数定义方法,提高了训练效率。与有限元方法相比,使用训练有素的神经网络可以更准确且更快地预测温度和通量剖面。与纯数据驱动方法相比,该方法在未知情况下具有更高的准确性。