小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
微调BERT模型

本文介绍了如何微调BERT模型以完成GLUE和SQuAD任务,包括加载数据集、创建数据加载器、定义模型结构和训练循环,从而有效应用BERT于特定的自然语言处理任务。

微调BERT模型

MachineLearningMastery.com
MachineLearningMastery.com · 2025-11-28T20:18:20Z
从头开始预训练BERT模型

本文介绍了如何使用PyTorch从头开始创建和预训练BERT模型,分为三个部分:创建BERT模型、从头构建BERT模型以及预训练过程。文章详细讲解了BERT的架构、训练过程和数据加载器的使用,并提供了完整的代码示例。

从头开始预训练BERT模型

MachineLearningMastery.com
MachineLearningMastery.com · 2025-11-26T05:30:06Z
为BERT训练准备数据

本文介绍了为BERT模型准备训练数据的过程,包括创建掩码语言模型(MLM)和下一个句子预测(NSP)数据。首先处理文档生成句子对,然后对句子进行掩码处理,最后将数据保存为parquet格式以便重用。这些步骤有效地为BERT模型提供训练数据。

为BERT训练准备数据

MachineLearningMastery.com
MachineLearningMastery.com · 2025-11-24T05:22:00Z
通用的dLLM开发框架,让BERT掌握扩散式对话

AI短名单是对长篇文章的简要概述,旨在提炼出核心信息。

通用的dLLM开发框架,让BERT掌握扩散式对话

机器之心
机器之心 · 2025-11-24T00:57:41Z
BERT模型及其变体

BERT是谷歌于2018年发布的自然语言处理模型,基于变换器架构,采用编码器结构,训练目标为预测输入序列中的掩码词。其变体包括RoBERTa(改进训练)、ALBERT(减少参数)和DistilBERT(知识蒸馏),在性能、大小和计算效率上各有不同。

BERT模型及其变体

MachineLearningMastery.com
MachineLearningMastery.com · 2025-11-22T18:20:15Z
为BERT模型训练分词器

本文介绍了如何根据BERT的设计训练WordPiece分词器。使用WikiText数据集,下载数据并配置分词器,包括特殊符号和NFKC标准化。训练后,分词器能够将文本转换为整数标记,并支持子词组件,最终保存为JSON文件以便后续使用。

为BERT模型训练分词器

MachineLearningMastery.com
MachineLearningMastery.com · 2025-11-18T20:07:11Z

机器之心数据服务现已上线,提供高效稳定的数据获取,简化数据爬取流程。

KDD 2025 Best Paper Runner-Up | EI-BERT:超紧凑语言模型压缩框架

机器之心
机器之心 · 2025-08-22T08:06:38Z

提示词注入攻击已成为大模型的主要威胁。研究表明,TokenBreak可以绕过文本分类模型的检测,通过巧妙修改输入词汇而不改变其含义。BERT等模型易受攻击,而Unigram模型相对安全,因此建议在提示词检测中优先使用Unigram模型。

加一个字母就可以绕过AI围栏,新的漏洞:TokenBreak

FreeBuf网络安全行业门户
FreeBuf网络安全行业门户 · 2025-08-14T05:13:27Z

趋势科技发现新型勒索软件BERT在全球范围内攻击医疗、科技和会展行业。该软件通过PowerShell在Windows系统中实施攻击,并在Linux上表现出更强的攻击性,采用模块化设计和即时加密。BERT与REvil勒索软件相似,可能是基于历史框架开发的。

新型BERT勒索软件肆虐:多线程攻击同时针对Windows、Linux及ESXi系统

FreeBuf网络安全行业门户
FreeBuf网络安全行业门户 · 2025-07-07T16:41:45Z
语言模型中的词嵌入

本文介绍了词嵌入在自然语言处理中的重要性,词嵌入将词表示为密集向量,使语义相似的词在向量空间中靠近。主要模型包括Word2Vec、GloVe和FastText,Word2Vec通过上下文预测词,GloVe通过词共现矩阵生成嵌入。现代语言模型如BERT利用这些嵌入捕捉词之间的语义关系。文章还提供了使用Gensim和PyTorch训练自定义词嵌入的示例。

语言模型中的词嵌入

MachineLearningMastery.com
MachineLearningMastery.com · 2025-06-02T04:06:23Z
词嵌入与文本向量化的温和介绍

文章介绍了词嵌入和文本向量化的基本概念,强调计算机如何通过数字表示理解人类语言。文本向量化将文本转换为机器可处理的数字形式,常见方法包括独热编码、词袋模型和TF-IDF。词嵌入通过学习低维表示捕捉词语之间的语义关系。现代上下文嵌入模型如ELMo和BERT,能够根据上下文动态生成词向量,提高自然语言处理的准确性和效率。

词嵌入与文本向量化的温和介绍

MachineLearningMastery.com
MachineLearningMastery.com · 2025-05-23T13:59:44Z
如何修复使用BERT与TensorFlow时常见的错误

本文讨论了在使用BERT进行文本分类时,TensorFlow中常见的ValueError和依赖冲突问题。解决方案包括安装兼容版本的TensorFlow,并避免使用过时的API。通过正确配置环境和代码,可以顺利实现BERT模型。

如何修复使用BERT与TensorFlow时常见的错误

DEV Community
DEV Community · 2025-05-15T00:30:19Z

该研究分析了匈牙利语的静态词嵌入,提出了X2Static抽取方法,提升了BERT模型的效果。结果显示,FastText在语义分析中表现优异,而X2Static在动态模型中更具优势,强调了静态与动态词嵌入的重要性。

Comparative Analysis of Static Word Embeddings in Hungarian

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-12T00:00:00Z

本研究提出IM-BERT,通过将BERT的层视为常微分方程求解的动态系统,解决了大规模模型在有限数据集上易受对抗攻击和过拟合的问题。IM-BERT在低资源场景下显著提高了模型的对抗鲁棒性,实验表明其在AdvGLUE数据集上的性能提升约8.3%。

IM-BERT: Enhancing the Robustness of BERT through the Implicit Euler Method

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-11T00:00:00Z

本研究探讨了利用零样本学习和大型语言模型(如FLAN-T5和BERT)提升电子邮件垃圾邮件检测的有效性,克服了传统检测技术在动态垃圾邮件策略和数据稀缺方面的局限,展现出良好的可扩展性和高效性。

Advancing Email Spam Detection: Leveraging Zero-Shot Learning and Large Language Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-05T00:00:00Z
自监督语言学习如何革新自然语言处理和生成AI

自监督学习是自然语言处理和生成AI的重要进展,通过利用原始数据的内在结构进行训练,无需人工标注。常见任务包括掩码语言建模和下一个标记预测,广泛应用于BERT和ChatGPT等语言模型的预训练。

自监督语言学习如何革新自然语言处理和生成AI

Stack Overflow Blog
Stack Overflow Blog · 2025-04-28T16:00:00Z

本研究解决了医学成像中标签获取困难的问题,通过引入nn-MobileNet框架,采用BERT式自监督学习方法,利用大量未标记的视网膜图像进行预训练,以提高下游应用的性能。研究结果表明,此方法在阿尔茨海默病、帕金森病及多种视网膜疾病的识别中显著提升了表现,展示了在标签稀缺情况下,CNN的潜力。

一种基于BERT风格的自监督学习CNN用于视网膜图像疾病鉴定

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-25T00:00:00Z

本研究提出了一种名为llm-jp-modernbert的现代BERT模型,旨在解决大规模语料库和长上下文的预训练问题。该模型在8192个标记的上下文长度上进行训练,尽管在下游任务中未超越现有基线,但在填充掩码评估中表现良好。

llm-jp-modernbert: A Modern BERT Model Trained on a Large-Scale Japanese Corpus with Support for Long Context Lengths

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-22T00:00:00Z

本研究提出了一种新方法,利用情感分析和BERTopic模型预测大型开源软件库中的缺陷解决时间、修复时间及最终状态。研究结果表明,情感分析在判断缺陷是否会被修复方面具有重要价值。

Predicting Bug Outcomes in Large Open Source Software Repositories: Leveraging Sentiment Analysis and BERT Topic Modeling

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-22T00:00:00Z

本研究提出了一种新方法,通过自然语言处理自动化对大型开源项目中的缺陷报告进行优先级排序。利用TopicMiner-MTM和BERT技术,显著提高了缺陷优先级预测的准确性和可靠性,超越了现有方法,具有良好的应用前景。

Automated Bug Report Prioritization in Large Open-Source Projects

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-22T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码