FreSh:加速神经表示学习的频率转换
原文中文,约300字,阅读约需1分钟。发表于: 。本研究解决了隐式神经表示(INRs)中多层感知机(MLPs)低频偏差的问题,限制了其捕捉高频细节的能力。通过提出频率转换(FreSh)方法,优化嵌入的超参数以匹配模型初始输出频谱与目标信号的频谱,本方法在多种神经表示方法和任务中显著提升性能,其效果可与全面的超参数搜索相媲美,但计算开销仅略高于默认超参数的单次训练。
本文研究了用隐式神经表示(INRs)参数化图像的方法,强调小波作为激活函数的优势。小波在频率和空间上的本地化能力优于正弦函数。研究提出了通过MLP的第一层逼近高频特征的策略,并提供了INR架构设计建议,如使用复数小波和解耦低通与带通的方法。