基于期望最大化和 Turbo 深度近似消息传递的贝叶斯联合学习
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
我们提出了一种基于消息传递的贝叶斯联邦学习框架 EM-TDAMP,通过组稀疏先验实现结构化模型压缩,加速收敛。通过在波士顿房价预测和手写识别中的应用和数值结果演示了 EM-TDAMP 的优势。
🎯
关键要点
- 提出了一种基于消息传递的贝叶斯联邦学习框架 EM-TDAMP。
- 通过组稀疏先验实现结构化模型压缩。
- 结合期望最大化和 Turbo deep approximate message passing (TDAMP) 实现分布式学习和压缩。
- EM-TDAMP 加速收敛。
- 在波士顿房价预测和手写识别中展示了 EM-TDAMP 的优势。
➡️