本研究提出了一种新的上下文学习蒸馏方法,旨在解决自然语言推理任务中大模型训练资源消耗过大的问题。通过将OPT-1.3B模型的参数压缩至1.25亿,外域准确率显著提高。
完成下面两步后,将自动完成登录并继续当前操作。