本研究实证检验了自然语言中的层级结构与幂律的关系,发现现有观点缺乏支持,尤其在句法结构上不成立,结果表明需重新思考幂律与层级结构的相关性。
本研究分析了大型语言模型在细粒度语言标注中的局限性,特别是在名词、动词和复杂句法结构的检测方面。实验结果显示,这些模型在处理复杂语言时常出现错误,影响语言分析的可靠性,为未来模型设计提供了参考。
本研究探讨了注意机制与人类记忆检索的关系,发现基于句法结构的Transformer模型在预测阅读时间上优于传统模型,强调了句法结构的重要性。
本研究探讨了多语言预训练语言模型在捕捉跨语言抽象语言表示方面的能力。发现模型在多语言文本上进行训练后仍存在语言特定的差异,句法结构并不共享。
该研究提出了一种基于句法树的语法引导生成模式,通过预测填充文本和构建下一级语法上下文来生成自然语言文本。实验结果显示,该方法在有效性和可解释性方面优于自回归基线。
本文介绍了一种名为SyntaxShap的可解释性方法,用于在安全关键领域利用大型语言模型。该方法考虑了文本数据中的句法结构,并通过扩展Shapley值来考虑基于解析的句法依赖关系。通过基于模型的评估方法,作者比较了SyntaxShap与其他可解释性方法在多个度量标准上的表现。结果表明,SyntaxShap能够生成更忠实、连贯和可解释的预测解释,适用于自回归模型。
本文介绍了一种名为SyntaxShap的可解释性方法,用于在安全关键领域利用大型语言模型。该方法考虑了文本数据中的句法结构,并通过扩展Shapley值来考虑基于解析的句法依赖关系。研究结果表明,SyntaxShap能够生成更忠实、连贯和可解释的预测解释,适用于自回归模型。
本文介绍了分析推特的问题,提出扩展UD指南覆盖特殊结构,使用Tweet Treebank v2解决标注歧义,并构建解析为UD的系统。还验证了精简解析器集合的新方法。
完成下面两步后,将自动完成登录并继续当前操作。