本研究解决了在处理大规模多尺度问题时,量化偏微分方程(PDE)中的知识性和偶然性不确定性面临的挑战。我们提出了一种新颖的\$PINN方法,通过结合局部贝叶斯物理知识神经网络(BPINN)和域分解框架,能够更高效地计算PDE的全局不确定性。研究结果表明,通过并行计算每个子域的局部不确定性,\$PINN显著提高了全局不确定性的恢复效率。
本文研究了物理信息神经网络(PINNs)在控制方程中的应用。在简单非线性摆系统中,PINNs在理想和真实数据下的准确性显著高于无信息神经网络。研究还探讨了PINNs在物理系统中的可行性,并通过FPGA实验解决了时间和空间数据对齐的问题。最后,文章讨论了研究成果和未来计划。
使用有限基础 Kolmogorov-Arnold 网络(FBKANs)和域分解方法,可以通过在并行中训练多个小型网络来解决多尺度问题,得到对噪声数据和物理相关训练具有准确结果的科学机器学习方法。
本文提出了一种基于对称群的域分解策略,以增强物理信息神经网络(PINN)对具有李对称群的偏微分方程(PDE)的正向和反向问题的求解能力。该方法通过将训练域划分为多个子域,并在每个子域中利用PINN和对称增强PINN方法学习解决方案,最后将它们拼接成PDE的整体解。实验结果表明,该方法显著提高了学习解的精度。
本文介绍了物理启发神经网络(PINNs)的内部运作机制和新的损失函数,以及在参数估计和算子发现中的应用。同时,展示了如何使用纯符号公式生成全部的训练代码,并对使用学习技术解决大量偏微分方程(PDEs)的性能进行了详细分析。最后,通过复杂的多物理场例子,Doyle-Fuller-Newman(DFN)模型,展示了如何使用 NeuralPDE 将其表达并求解。
Mosaic Flow是一种新颖的域分解方法,通过在小域上预训练网络,实现在大域上的偏微分方程求解。优化网络架构和数据并行训练,将学习拉普拉斯算子的训练时间缩短为几分钟。分布式域分解算法使得在32个GPU上能够解决大于训练域4096倍的拉普拉斯方程,展示了较强的扩展性和精度。Mosaic Flow的可重用性和分布式内存算法的性能改进,使其成为建模复杂物理现象和加速科学发现的有前景工具。
完成下面两步后,将自动完成登录并继续当前操作。