小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
评估语言模型的困惑度

语言模型的困惑度(perplexity)用于衡量模型对文本的预测能力,表示为样本中标记概率的几何平均数的倒数。困惑度越低,模型对下一个标记的预测越准确。可以使用HellaSwag数据集来评估模型的困惑度,示例代码展示了如何计算每个结尾的困惑度并评估模型的准确性。

评估语言模型的困惑度

MachineLearningMastery.com
MachineLearningMastery.com · 2025-12-23T16:44:35Z
FS-DFM:基于少步扩散语言模型的快速准确长文本生成

FS-DFM(Few-Step Discrete Flow-Matching)是一种高效的长文本生成模型,通过优化采样步骤数量,显著减少生成长序列的延迟。在语言建模基准测试中,使用8个采样步骤时,其困惑度与传统1024步模型相当,速度提高了128倍。

FS-DFM:基于少步扩散语言模型的快速准确长文本生成

Apple Machine Learning Research
Apple Machine Learning Research · 2025-10-13T00:00:00Z

字节与复旦大学研究人员提出了自适应推理框架CAR,该框架根据模型困惑度动态选择短回答或长文本推理,以平衡准确性与效率。研究表明,长CoT推理并不总能提高准确率,甚至可能降低简单任务的处理能力。CAR在低置信度时使用长推理,高置信度时直接输出短回答,显著提升了多模态视觉问答和信息提取任务的表现。

低Token高精度!字节复旦推出自适应推理框架CAR

量子位
量子位 · 2025-05-27T04:00:05Z

本研究提出了一种名为稀疏注意力混合(MoSA)的方法,旨在降低大型语言模型自注意力计算的复杂度。MoSA通过动态选择注意力头的标记,显著提高模型性能,在相同计算预算下,困惑度比稠密基线高出27%。

Mixture of Sparse Attention: Content-Based Learnable Sparse Attention via Expert-Choice Routing

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-01T00:00:00Z
逐字生成非最优?试试逐「块」生成!Block Diffusion打通了自回归与扩散

OpenAI 的块离散去噪扩散语言模型(BD3-LMs)结合了扩散与自回归模型,解决了生成任意长度序列的局限性。研究表明,BD3-LMs 在多个基准测试中表现出最佳困惑度,能够高效生成可变长度文档,克服了传统扩散模型的缺陷。

逐字生成非最优?试试逐「块」生成!Block Diffusion打通了自回归与扩散

机器之心
机器之心 · 2025-03-15T16:08:00Z
随着大模型在长文本处理任务中的应用日益广泛,如何客观且精准地评估其长文本能力已成为一个亟待解决的问题。

随着大模型在长文本处理中的应用增多,传统的困惑度评估方法显现出局限性。研究表明,某些模型在困惑度上表现良好,但实际效果不佳。北京大学团队提出了新的评估指标长文本困惑度(LongPPL),更准确地反映模型在长文本处理中的能力,并提出长文本交叉熵(LongCE)以优化训练效果。

随着大模型在长文本处理任务中的应用日益广泛,如何客观且精准地评估其长文本能力已成为一个亟待解决的问题。

机器之心
机器之心 · 2025-03-09T11:29:00Z

本研究提出了一种层敏感的量化方法,解决了现有方法在处理大规模神经网络时未考虑各层量化难度的问题。通过识别量化困难的层并分配更多内存预算,提出了SensiBoost和KurtBoost方法,显著提高了量化精度,在LLama模型上实现了9%的困惑度提升,仅增加2%的内存预算。

Towards Superior Quantization Accuracy: A Layer-Sensitive Approach

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-09T00:00:00Z
ChamaleonLLM:推理过程中大型语言模型的动态适应

ChamaleonLLM是一个新框架,允许大型语言模型在推理时动态适应。通过批量感知聚类和动态低秩更新,模型能够实时调整以处理不同输入,从而提高灵活性和效率。与传统方法相比,ChamaleonLLM在验证损失和困惑度上表现更佳,适用于多样化数据。

ChamaleonLLM:推理过程中大型语言模型的动态适应

DEV Community
DEV Community · 2025-02-09T08:48:08Z

本研究提出了一种新的模型——困惑度注意力加权网络(PAWN),用于检测人工智能生成的文本。该模型通过加权特征显著提升检测性能,具有良好的适应性和鲁棒性,能够在资源要求减少的情况下应对分布变化。

Not All Tokens Are Created Equal: Perplexity Attention Weighted Networks for AI-Generated Text Detection

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-07T00:00:00Z

本研究提出了一种新方法,通过增强大型语言模型的关键值缓存,解决其在处理复杂问题时的延迟和优化困难。该方法使模型能够以可微分的方式学习提炼额外计算,从而显著降低推理任务中的困惑度并提高性能。

Deliberation in Latent Space via Differentiable Cache Augmentation

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-23T00:00:00Z

本文介绍了一种作者归属方法——作者语言模型(ALMs),通过调整语言模型的困惑度来识别文档作者。基准测试显示,ALMs在Blogs50数据集上的宏平均准确率为83.6%,在CCAT50上为74.9%。短文本测试表明,Blogs50需要40个词元和CCAT50需要400个词元才能达到70%的准确率。

一种贝叶斯方法:利用大型语言模型进行作者归属

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-29T00:00:00Z

该研究探讨了开放式文本生成中模型质量评估的挑战,提出了一种基于偏序的基准方法和新的总结指标,以平衡连贯性、多样性和困惑度,从而提供更全面的质量评估。

Towards Better Open-Ended Text Generation: A Multi-Criteria Evaluation Framework

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-24T00:00:00Z

本研究提出了一种新的混合专家模型方法,称为笛卡尔乘积路由(CartesianMoE),解决了专家之间知识共享不足的问题。实验结果表明,该方法在困惑度和下游任务性能上优于传统模型,并增强了专家路由的鲁棒性。

CartesianMoE:通过笛卡尔乘积路由提升专家之间的知识共享

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-21T00:00:00Z

本研究提出了一种高效方法,通过对训练语料的子集进行训练和评估,实现数据消融的近似。发现单个模型在候选数据集上的困惑度与不同数据分割上训练的模型参数平均困惑度密切相关。此方法提升了训练效率,并为模型性能改进提供新途径。

通过模块化训练和合并实现语言模型的可扩展数据消融近似

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-21T00:00:00Z

本研究解决了语言建模中规划模块与语言模型无法共同微调的问题。通过使用预测标签概率作为混合权重的方法,实现共同训练,优化标签分布。实验结果显示,该方法在困惑度上有明显改善。

端到端规划器训练用于语言建模

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-16T00:00:00Z

本研究提出了一种插拔式性能估计方法,利用少量未标记样本解决大语言模型在不同任务和上下文中的性能差异问题。通过负对数似然和困惑度优化LLM服务的选择和使用。

无需依赖标记数据的LLM服务插拔性能估计

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-10T00:00:00Z

该研究将预训练的神经语言模型与$k$最近邻居模型线性插值,提高了Wikitext-103 LM的困惑度2.9点至15.79,无需额外训练。该方法在扩展到更大的训练数据和实现领域自适应方面也表现出良好效果。作者认为最近邻搜索是长尾系统的有效语言建模方法。

基于最近邻的高效自然语言处理任务不确定性估计

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-07-02T00:00:00Z

本论文研究了循环神经网络语言模型(RNNLMs)的规模特性,讨论了在GPU上训练大型RNN的方法,并探讨了模型大小、训练集大小、计算成本和内存方面的扩展性问题。研究结果显示,RNNLMs在标准测试中的困惑度较低,相比于N元模型。此外,研究者训练了目前已知的最大RNN,在ASR任务中表现出18%的相对词误差率提升,并在最近发布的十亿字语言建模基准测试中表现出新的最低困惑度、机器翻译的1 BLEU点表现提升以及词预测方面的17%相对命中率提高。

线性复杂度语言模型的尺度定律

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-24T00:00:00Z

该研究将预训练的神经语言模型与$k$最近邻居模型线性插值,提高了Wikitext-103 LM的困惑度2.9点至15.79,无需额外训练。该方法在扩展到更大的训练数据和实现领域自适应方面也表现出良好效果。作者认为最近邻搜索是长尾系统的有效语言建模方法。

最近邻假设解码用于 LLM 生成和归因

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-05-29T00:00:00Z

研究发现大型语言模型中少数参数对性能有巨大影响,提出了一种新的参数优化方法CherryQ,通过高精度保存关键参数,将其他参数量化为低精度。实验证明CherryQ在困惑度和下游任务性能方面优于现有方法,3位量化模型性能与16位量化模型相媲美。显示了CherryQ在提高语言模型部署效率方面的潜力。

顶上的樱桃:大型语言模型中的参数异质性和量化

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-04-03T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码