ReLU 网络在凸松弛下的表达能力
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
该文提出了一种通过将非凸培训问题重新定义为凸程序的方法来分析最佳ReLU神经网络集合的框架,并指出凸参数化的全局最优解由多面体集合给出。同时,该文还扩展了这种特征以获得非凸培训目标的最优集合,并提供了一种计算最小网络的最佳减枝算法。此外,该文还建立了ReLU网络正则化路径连续的条件,并开发了最小ReLU网络的灵敏度结果。
🎯
关键要点
-
通过将非凸培训问题重新定义为凸程序,开发了分析框架来表征最佳ReLU神经网络的集合。
-
凸参数化的全局最优解由一个多面体集合给出。
-
扩展了特征以获得非凸培训目标的最优集合。
-
提供了一种计算最小网络的最佳减枝算法。
-
建立了ReLU网络正则化路径连续的条件。
-
开发了最小ReLU网络的灵敏度结果。
➡️