无泄漏的分割学习:减少隐私泄露
原文中文,约200字,阅读约需1分钟。发表于: 。使用分层学习 (SL) 和同态加密 (HE) 的混合方法在 MIT-BIH 数据集上提供了更快的训练时间 (大约是其他基于 HE 的方法的 6 倍) 和显著减少的通信开销 (几乎是其他方法的 160 倍),从而为深度学习中的敏感数据提供了更好的隐私保护。
使用分层学习和同态加密的混合方法在MIT-BIH数据集上提供了更快的训练时间和减少的通信开销,为深度学习中的敏感数据提供了更好的隐私保护。
使用分层学习 (SL) 和同态加密 (HE) 的混合方法在 MIT-BIH 数据集上提供了更快的训练时间 (大约是其他基于 HE 的方法的 6 倍) 和显著减少的通信开销 (几乎是其他方法的 160 倍),从而为深度学习中的敏感数据提供了更好的隐私保护。
使用分层学习和同态加密的混合方法在MIT-BIH数据集上提供了更快的训练时间和减少的通信开销,为深度学习中的敏感数据提供了更好的隐私保护。