非线性激活函数对深度神经网络很重要,选择合适的激活函数能提升性能。传统激活函数可能限制表达能力,因此可训练激活函数(TAFs)受到关注。论文提出了一种基于微分同胚变换的可训练激活函数DiTAC,虽然只引入少量参数,但在语义分割、图像生成等任务中表现优于现有激活函数。DiTAC结合CPAB变换,提供高效的非线性表达能力,适用于多种数据和任务。
完成下面两步后,将自动完成登录并继续当前操作。