本研究提出了上下文过滤语言模型(FltLM),解决长上下文大语言模型的“中间信息丢失”和“注意力分散”问题。通过结合上下文过滤器和软掩码机制,FltLM在多文档问答任务中表现优异,显示出在长文本自然语言理解中的潜力。
完成下面两步后,将自动完成登录并继续当前操作。