受第二阶B样条小波启发,我们为深度神经网络的ReLU神经元引入简单约束,提升隐式神经表示的效率。实验显示,仅用ReLU神经元的DNN可实现先进的隐式表示。我们提供了一种量化学习函数规则性的方法,指导INR架构的超参数选择,并通过信号表示、超分辨率和计算机断层扫描等实验验证了方法的多样性和有效性。
本文提出了一种名为INRR的正则化器,旨在提高隐式神经表示的泛化能力。INRR通过将归一化的Dirichlet能量与INR集成来改善信号表示的泛化性能,并进一步设计了实验来论证其性质。结果表明,该方法可以提高其他信号表示方法的性能。
本文提出了一种名为INRR的正则化器,旨在提高INR的泛化能力。INRR通过将归一化的Dirichlet能量与INR集成来改善信号表示的泛化性能,并设计了实验来论证其性质和提高其他信号表示方法的性能。
完成下面两步后,将自动完成登录并继续当前操作。