小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
推理模型只是大型语言模型

人们开始重新审视大型语言模型(LLMs),认为其进展并非完全错误。尽管DeepSeek R1等模型仍基于预测下一个词的解码器,缺乏明确的符号推理,但研究表明,少量示例足以让模型进行复杂推理。LLMs通过无监督预训练和强化学习,能够有效回答复杂问题。因此,认为LLMs无用的观点是不准确的。

推理模型只是大型语言模型

<antirez>
<antirez> · 2025-02-09T18:19:38Z

本研究提出了DeepSeek-R1及其无监督预训练版本DeepSeek-R1-Zero,旨在提升大型语言模型的推理能力。通过多阶段训练,DeepSeek-R1在推理任务上表现优异,解决了可读性和语言混合等问题。

DeepSeek-R1: Incentivizing Reasoning Capability in Large Language Models via Reinforcement Learning

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-22T00:00:00Z
🧠生成式AI - 3

生成式AI模型如GPT的训练包括两个阶段:无监督预训练和有监督微调。前者通过大量文本数据学习语言模式,后者利用标记数据优化特定任务。

🧠生成式AI - 3

DEV Community
DEV Community · 2024-12-24T15:39:54Z

本研究比较了半监督学习中的预训练和自训练方法,发现预训练与微调组合效果最佳,自训练与半监督预训练结合未提供额外收益。其他研究探索了自监督正则化、贝叶斯深度学习、对比学习等方法在半监督学习中的应用,取得了显著提升。建议未来关注无监督预训练目标的半监督学习研究。

预训练与自训练的比较研究

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-09-04T00:00:00Z

通过shelf-supervision模型对RGB和LiDAR数据进行无监督预训练,提出了一种能够生成零样本3D边界框的点云表示方法,适用于半监督检测和LiDAR-only和多模态检测。在nuScenes和WOD上展示了方法的有效性,并改进了之前的工作。

OC3D:只需粗略点击标注的弱监督户外3D目标检测

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-15T00:00:00Z

本文介绍了一种基于神经网络和BERT模型的用户嵌入系统Author2Vec,通过使用BERT模型的句子嵌入技术和作者分类的无监督预训练目标,生成更好的用户嵌入表示。在Reddit平台的1万个用户文章数据上进行预训练,并在抑郁症和人格分类等用户分类基准上进行了分析和评估,结果表明其性能优于传统方法。Author2Vec成功地编码了有用的用户属性,并在下游分类任务中表现出良好的性能。

VecAug: 用于增强检测的同伴增强揭示伪装欺诈行为

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-01T00:00:00Z

该论文介绍了一种名为G-GNNs的新型模型,通过无监督预训练获取节点的全局结构和属性特征,并在平面图和属性图上进行了实验,表现优异。

揭示图间的全球交互模式:走向可解释图神经网络

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-07-02T00:00:00Z

通过无监督预训练实现视觉和语言模型的学习,使用“mask-and-predict”方法预训练文本和图像数据,并引入目标识别模型检测到的对象标签作为两种模式之间的桥梁。在四个英语视觉和语言基准测试中获得了接近于使用对齐数据预训练的模型的性能,挑战了对于V&L预训练来说,对齐数据是必要的广泛看法,并显著减少了V&L模型的监督所需量。

通过潜在压缩学习在交替图像文本数据上进行视觉模型预训练

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-11T00:00:00Z

本文介绍了GPT模型的底层原理和架构,以及在无监督预训练和有监督下游任务微调方面的应用。同时,还介绍了基于HuggingFace的预训练语言模型实践,包括数据集准备、训练词元分析器、预处理语料集合和模型训练等步骤。最后,给出了模型使用的示例。

语言模型:GPT与HuggingFace的应用

华为云官方博客
华为云官方博客 · 2023-12-08T09:31:31Z

该文介绍了一种使用Barlow Twins训练自监督编码器的技术,可以从未标记的数据中学习,减少注释样本的数量,并在语义场景分割任务中应用。实验结果表明,无监督预训练可以提高性能,特别是对于少数类别。

基于地势信息的自主学习:利用有限注释增强 LiDAR 数据中的建筑物提取

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-11-02T00:00:00Z

该文介绍了一种新型无监督整体预训练方法ProSeCo,利用基于Transformer的物体检测器生成的大量目标提案进行对比学习,从而允许使用较小的批量大小,并结合物体级特征学习图像中的局部信息。该方法在使用较少数据进行物体检测的无监督预训练中优于现有方法,在标准和新颖的基准测试中表现出色。

少量数据目标检测的对比预训练建议

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-10-25T00:00:00Z

该文介绍了一种基于掩蔽自动编码器的无监督预训练技术,用于心电图心律失常分类任务。该方法在未标记数据的任务特定微调中表现出更好的性能,相较于全监督方法,在MITDB数据集上取得了94.39%的准确率。

使用掩蔽型自编码器进行心电图分析的无监督预训练

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-10-17T00:00:00Z

研究人员通过Barlow Twins训练自监督编码器进行预训练,提出了一种从未标记的数据中学习的技术,以减少注释样本数量,并在语义场景分割任务中应用。实验结果表明,无监督预训练在有监督任务上进行微调后,能够显著提高性能,尤其是对于少数类别。

自监督预训练提升激光雷达数据的语义场景分割

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-09-05T00:00:00Z

该论文提出了一种名为G-GNNs的新型模型,通过无监督预训练获取节点的全局结构和属性特征,并利用这些特征和原始网络属性提出了一种GNN的并行框架。该模型在平面图和属性图上进行了实验,并在三个标准评估图上表现出色,特别是在属性图学习方面,G-GNNs在Cora(84.31%)和Pubmed(80.95%)上建立了新的基准记录。

搜索以微调预训练的图神经网络用于图级任务

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-08-14T00:00:00Z
ChatGPT的模型训练

本文介绍了ChatGPT模型的训练过程,包括无监督预训练、监督微调和指令微调。还介绍了Alpaca、Vicuna和ColossalChat的训练过程和代码。训练代码包括定义模型结构、损失函数和准备训练数据。奖励模型和强化学习模型的训练将在下一篇文章中介绍。

ChatGPT的模型训练

Bright LGM's Blog
Bright LGM's Blog · 2023-05-20T20:00:00Z
通过无监督学习提升语言理解能力

我们在多语言任务上取得了先进成果,采用可扩展的无任务系统,结合变换器与无监督预训练,证明了监督学习与无监督预训练的有效结合,旨在激励更多研究。

通过无监督学习提升语言理解能力

OpenAI
OpenAI · 2018-06-11T07:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码