ReLU-FNN 的局部利普希茨常数计算:精确性验证的上界计算

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

该研究提出了一种变分框架来学习深度神经网络的激活函数,以增加网络容量并控制输入输出关系的Lipschitz常数的上界。实施l1约束,获得了稀疏的非线性激活函数,并在标准ReLU网络及其变化上进行了实验验证。

🎯

关键要点

  • 研究提出了一种变分框架来学习深度神经网络的激活函数。
  • 该框架旨在增加网络容量并控制输入输出关系的Lipschitz常数的上界。
  • 引入了线性Lipschitz常数的全局界限和基于级联线性激活函数的无穷维度变分问题。
  • 通过在激活参数上实施l1约束,减少了问题的维度。
  • 获得了稀疏的非线性激活函数。
  • 在标准ReLU网络及其变化PReLU和LeakyReLU上进行了实验验证。
➡️

继续阅读