近年来,AI实验室通过增加参数、数据和计算能力推动大型语言模型(LLMs)发展。然而,AI界开始质疑这种方法是否已到极限,或需新范式。谷歌DeepMind的Chinchilla模型表明,训练数据的充分性比模型大小更为重要。尽管取得成功,专家担心规模法则的边界已现,未来可能需要新的思维模型和计算方法以推动AI进步。
本文介绍了复述类型生成和检测任务,以解决当前方法过于依赖单一通用评分的问题。通过考虑特定文本位置上的复述类型,这些任务可以帮助模型更好地理解复述类型。虽然细粒度的复述类型带来了挑战,但考虑复述类型可以提高模型的理解能力,为未来任务开启一种新的范式。
完成下面两步后,将自动完成登录并继续当前操作。