基于期望最大化和 Turbo 深度近似消息传递的贝叶斯联合学习

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

我们提出了一种基于消息传递的贝叶斯联邦学习框架 EM-TDAMP,通过组稀疏先验实现结构化模型压缩,加速收敛。通过在波士顿房价预测和手写识别中的应用和数值结果演示了 EM-TDAMP 的优势。

🎯

关键要点

  • 提出了一种基于消息传递的贝叶斯联邦学习框架 EM-TDAMP。
  • 通过组稀疏先验实现结构化模型压缩。
  • 结合期望最大化和 Turbo deep approximate message passing (TDAMP) 实现分布式学习和压缩。
  • EM-TDAMP 加速收敛。
  • 在波士顿房价预测和手写识别中展示了 EM-TDAMP 的优势。
➡️

继续阅读