本研究解决了在处理大规模多尺度问题时,量化偏微分方程(PDE)中的知识性和偶然性不确定性面临的挑战。我们提出了一种新颖的\$PINN方法,通过结合局部贝叶斯物理知识神经网络(BPINN)和域分解框架,能够更高效地计算PDE的全局不确定性。研究结果表明,通过并行计算每个子域的局部不确定性,\$PINN显著提高了全局不确定性的恢复效率。
本文介绍了有限基PINNs(FBPINNs)方法,旨在解决大规模微分方程问题。该方法结合了神经网络与有限元方法,具有网格自由性和高效性。研究表明,FBPINNs在处理复杂问题时优于传统PINNs,并探讨了物理信息驱动的神经网络在不同系统中的应用及其优势,提出了领域解耦PINNs以提高训练效率和预测准确性。
使用有限基础 Kolmogorov-Arnold 网络(FBKANs)和域分解方法,可以通过在并行中训练多个小型网络来解决多尺度问题,得到对噪声数据和物理相关训练具有准确结果的科学机器学习方法。
本文提出了一种基于对称群的域分解策略,以增强物理信息神经网络(PINN)对具有李对称群的偏微分方程(PDE)的正向和反向问题的求解能力。该方法通过将训练域划分为多个子域,并在每个子域中利用PINN和对称增强PINN方法学习解决方案,最后将它们拼接成PDE的整体解。实验结果表明,该方法显著提高了学习解的精度。
本文介绍了物理启发神经网络(PINNs)的内部运作机制和新的损失函数,以及在参数估计和算子发现中的应用。同时,展示了如何使用纯符号公式生成全部的训练代码,并对使用学习技术解决大量偏微分方程(PDEs)的性能进行了详细分析。最后,通过复杂的多物理场例子,Doyle-Fuller-Newman(DFN)模型,展示了如何使用 NeuralPDE 将其表达并求解。
Mosaic Flow是一种新颖的域分解方法,通过在小域上预训练网络,实现在大域上的偏微分方程求解。优化网络架构和数据并行训练,将学习拉普拉斯算子的训练时间缩短为几分钟。分布式域分解算法使得在32个GPU上能够解决大于训练域4096倍的拉普拉斯方程,展示了较强的扩展性和精度。Mosaic Flow的可重用性和分布式内存算法的性能改进,使其成为建模复杂物理现象和加速科学发现的有前景工具。
完成下面两步后,将自动完成登录并继续当前操作。