该论文提出了一种名为“近无限批量大小缩放”(NIBS)的方法,旨在解决对比学习模型的内存限制。通过将损失计算与梯度更新的数据解耦,研究者实现了更大的有效批量大小,从而显著提升了多项基准任务的性能,为处理更大、更复杂的数据集提供了新机遇。
完成下面两步后,将自动完成登录并继续当前操作。