集成和专家混合 DeepONets 用于运算员学习

💡 原文中文,约600字,阅读约需2分钟。
📝

内容提要

我们提出了一种新型的深度运算符网络架构,即集合DeepONet,通过多个主干网络来提高表达能力和泛化能力。我们还提出了一种空间专家混合DeepONet主干网络架构,利用单位划分近似来促进空间局部性和模型稀疏性。实验证明,集合DeepONet在运算符学习问题上相对于标准DeepONet和POD-DeepONet具有更低的相对l2误差。这些新的架构为科学机器学习中的运算符学习提供了强大而通用的框架。

🎯

关键要点

  • 提出了一种新型的深度运算符网络架构,集合DeepONet,利用多个主干网络提高表达能力和泛化能力。

  • 提出了一种空间专家混合DeepONet主干网络架构,利用单位划分近似促进空间局部性和模型稀疏性。

  • 实验证明,集合DeepONet在运算符学习问题上相对于标准DeepONet和POD-DeepONet具有更低的相对l2误差。

  • 集合DeepONet和PoU-MoE DeepONet都是通用逼近器。

  • 新的PoU-MoE公式为将空间局部性和模型稀疏性纳入任何神经网络架构提供了自然方式。

  • 集合DeepONet为运算符学习的科学机器学习架构提供了强大而通用的框架。

➡️

继续阅读