一种用于合作资源分配的联合在线不安分强盗框架

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

该论文介绍了一个用于在线组合优化和有限带反馈的联邦学习框架,将离线单代理逼近算法转化为具有多代理算法,并保证了次线性增长和线性加速。通过实证验证展示了框架的有效性。

🎯

关键要点

  • 该论文介绍了一个用于在线组合优化和有限带反馈的联邦学习框架。
  • 框架将复杂度为 O(psi/epsilon^beta) 的离线单代理逼近算法转化为在线多代理算法。
  • 保证了与时间跨度 T 的次线性增长,且随着通信代理数量的增加而线性加速。
  • 算法具有高效的通信特性,只需要亚线性数量的通信轮次。
  • 成功应用于在线随机子模块最大化,展示了单代理和多代理设置的结果。
  • 通过对随机数据摘要问题的实证验证展示框架的有效性。
➡️

继续阅读