本研究提出了一种名为“规模高效训练(SeTa)”的新方法,旨在解决大规模数据集训练中低价值样本导致的效率低下问题。SeTa通过动态样本剪枝和分层学习策略,能够在减少训练时间的同时保持或提升模型性能,最高可减少训练成本达50%。
使用分层学习和同态加密的混合方法在MIT-BIH数据集上提供了更快的训练时间和减少的通信开销,为深度学习中的敏感数据提供了更好的隐私保护。
完成下面两步后,将自动完成登录并继续当前操作。