该文提出了一种通过将非凸培训问题重新定义为凸程序的方法来分析最佳ReLU神经网络集合的框架,并指出凸参数化的全局最优解由多面体集合给出。同时,该文还扩展了这种特征以获得非凸培训目标的最优集合,并提供了一种计算最小网络的最佳减枝算法。此外,该文还建立了ReLU网络正则化路径连续的条件,并开发了最小ReLU网络的灵敏度结果。
完成下面两步后,将自动完成登录并继续当前操作。