小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
自监督语言学习如何革新自然语言处理和生成AI

自监督学习是自然语言处理和生成AI的重要进展,通过利用原始数据的内在结构进行训练,无需人工标注。常见任务包括掩码语言建模和下一个标记预测,广泛应用于BERT和ChatGPT等语言模型的预训练。

自监督语言学习如何革新自然语言处理和生成AI

Stack Overflow Blog
Stack Overflow Blog · 2025-04-28T16:00:00Z

本文提出了一种新颖的置信度正则化方法,旨在解决掩码语言建模中因输入文本长度短而导致的模型过度自信问题。实验结果显示,该方法在GLUE和SQuAD数据集上提高了准确性并降低了校准误差。

Confidence Regularization for Masked Language Modeling Using Text Length

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-08T00:00:00Z

本研究提出了一种新方法,通过掩码语言建模头使BERT等编码器模型能够进行生成分类。该方法在零-shot分类和知识任务上表现优越,具有广泛应用潜力。

It's All in the [MASK]: Simple Instruction Tuning Enables BERT-like Masked Language Models to Become Generative Classifiers

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-06T00:00:00Z

本文提出了一种新的混合训练目标,将掩码语言建模与因果语言建模相结合,克服了语言模型训练的局限性。实验结果表明,混合预训练显著优于单独使用掩码或因果模型。

GPT or BERT: Why Not Combine the Two?

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-31T00:00:00Z

本文介绍了一种名为Mask-tuning的训练方法,通过将掩码语言建模(MLM)训练目标整合到微调过程中,提高了预训练语言模型(PLMs)的泛化能力。研究结果表明,Mask-tuning超越了当前最先进的技术,并增强了PLMs在离群数据集上的泛化能力,同时提高了它们在分布数据集上的性能。

LinguAlchemy: 将语言类型学和地理元素融合实现未知语言泛化

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-01-11T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码