本研究提出选择性注意联邦学习(SAFL)方法,旨在解决医疗应用中的通信开销和模型隐私问题。SAFL通过动态微调重要变换层,降低通信带宽并增强隐私保护。实验结果表明,SAFL在临床自然语言处理基准测试中表现优越,提升了效率并维护了隐私。
哈佛华人研究员Jeffrey Wang正式加入OpenAI,负责模型预训练和推理。他曾获美国“少年诺贝尔奖”提名,教授机器学习,并研究模型隐私和偏见问题。此外,他还是一位广受关注的作家。
完成下面两步后,将自动完成登录并继续当前操作。