ReLU-FNN 的局部利普希茨常数计算:精确性验证的上界计算
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
该研究提出了一种变分框架来学习深度神经网络的激活函数,以增加网络容量并控制输入输出关系的Lipschitz常数的上界。实施l1约束,获得了稀疏的非线性激活函数,并在标准ReLU网络及其变化上进行了实验验证。
🎯
关键要点
- 研究提出了一种变分框架来学习深度神经网络的激活函数。
- 该框架旨在增加网络容量并控制输入输出关系的Lipschitz常数的上界。
- 引入了线性Lipschitz常数的全局界限和基于级联线性激活函数的无穷维度变分问题。
- 通过在激活参数上实施l1约束,减少了问题的维度。
- 获得了稀疏的非线性激活函数。
- 在标准ReLU网络及其变化PReLU和LeakyReLU上进行了实验验证。
🏷️
标签
➡️