若干年前,我参加了一位朋友的婚礼并见证了一个当时我不太能理解的环节。新郎,也就是我的那位朋友,带着几位伴郎,敲打新娘房间的门,而新娘带着的几位伴娘则负责堵住门。这是一个持续了大约十分钟的游戏,围观者众多,伴郎们一边敲门一边恳求着开门,一边通过门缝往里面塞东西,有时候塞的是红包,有时候塞的是卡片。 后来我看战争史才理解到这个游戏意味着什么。这是一种争夺领地的斗争,在人和动物里都很常见,而这种斗...
本文提出AMPS新技术,通过使用释义作为额外监督信息,显著降低了多语言对话语音识别中的字错误率,提升了印地语和马拉地语等语言的识别效果。
本文介绍了如何在iPad上使用快捷指令记录不认识的单词,包括创建表格和设置指令,以便记录生词、释义和例句,从而提高记忆效果。
本研究聚焦于水印技术在抵抗释义攻击中的有效性,指出当前一些水印方案在反向工程方面存在明显缺陷。通过仅使用有限的水印生成文本,研究表明可以显著提升释义攻击的成功率,从而使水印失去效用,这揭示了现有水印技术的脆弱性。
本文介绍了一种名为Syntactically controlled Paraphrase Generator(SynPG)的模型,该模型能够从未注释文本中学习语义与语法的分离,生成多样化的释义。实验结果表明,SynPG在语法控制和释义质量上优于无监督基线,经过训练后,其性能可与有监督模型相媲美,适用于数据增强,提高NLP模型的鲁棒性。
本研究探讨了从释义文本恢复原文的方法,通过微调模型验证了在机器和人类文本中恢复内容的可行性,提升了抄袭检测和作者身份识别的效果。
本研究提出了多维度评估基准PARAPHRASUS,解决了现有释义检测模型评估方式过于简化的问题。研究发现,细粒度评估下的模型能更全面地反映语义理解能力。
大型语言模型在聊天、推理和问答等任务中表现出卓越能力。提出了增强语用的生成预训练变压器(ParalinGPT),利用文本和语音模态建模口语回应的语言内容和语用属性。实验证明,该方法在情感分类上优于典型的序列分类技术,并显著改进了回应文本的生成和情感预测。框架在当前情感准确度、回应情感准确度和回应文本BLEU分数上取得了相对改进。
通过对比式编码器模型在多语言环境下进行训练,实现检测多语言环境中的困难释义,得到可用于语义搜索等多种任务的嵌入向量,并在下游任务中评估模型性能和嵌入向量质量,与当前最先进的交叉编码器相比,在所选择的数据集中只有 7-10% 的最小相对下降,同时保持嵌入向量的良好质量。
本文提出使用挖掘和释义的自动化方法生成高质量多样化的提示语,并通过模型集成改进语言模型中的关系知识查询。LAMA基准测试表明,该方法将LM准确性从31.1%提升至39.6%,为LM的知识提供了更严格的下限估计。
为了评估大型语言模型(LLMs)对隐喻理解的能力,研究人员发布了隐喻理解挑战数据集(MUNCH),其中包含超过10k个含隐喻用法的句子的释义和1.5k个含不恰当释义的实例。实验表明,MUNCH对LLMs来说是一个具有挑战性的任务。
该方法通过引入自编码器重建损失,将分类器输出结果与自编码器的潜空间相连接,提高了干预解释搜索过程的速度和解释干预结果的可解释性。实验证明该方法在多个数据集上有效。
本文介绍了复述类型生成和检测任务,以解决当前方法过于依赖单一通用评分的问题。通过考虑特定文本位置上的复述类型,这些任务可以帮助模型更好地理解复述类型。虽然细粒度的复述类型带来了挑战,但考虑复述类型可以提高模型的理解能力,为未来任务开启一种新的范式。
完成下面两步后,将自动完成登录并继续当前操作。