更多数据的危害:下一代储层计算中的不稳定性和正则化
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
研究发现,深度神经网络性能受损,使用更多训练数据可能导致不稳定性。提出减轻不稳定性的策略,如增加正则化强度或引入噪声。强调数据驱动动力系统建模中适当的正则化的重要性。
🎯
关键要点
- 研究发现,使用更多训练数据可能导致深度神经网络性能受损。
- 在数据驱动的动力系统模型中,这种现象表现得更为极端。
- 通过研究下一代储层计算(NGRC)框架,发现更多训练数据可能导致不稳定性。
- NGRC可能采用病态的“积分器”,从而失去稳定性。
- 数据诱导的不稳定性与NGRC中的延迟状态产生的辅助维度有关。
- 提出的减轻不稳定性的策略包括增加正则化强度和谨慎引入噪声。
- 研究结果强调了在数据驱动的动力系统建模中适当正则化的重要性。
➡️