小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本研究分析了大语言模型在安全对齐方面的脆弱性,指出模型的安全行为受到广泛学习动态的影响,挑战了安全对齐独立几何方向的假设,并强调了在持续训练中保持对齐的重要性。

安全子空间并不独立:一个微调案例研究

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-20T00:00:00Z

本研究提出布尔密集检索任务,收集了基准数据集BoolQuestions,发现现有系统对布尔逻辑的理解不足,并提出通过对比持续训练的方法来提升语言模型的布尔逻辑理解能力。

BoolQuestions: Does Dense Retrieval Understand Boolean Logic in Language?

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-11-19T00:00:00Z

本研究介绍了EMMA-500,一个在546种语言上持续训练的大规模多语言模型,旨在提升低资源语言的表现。通过MaLA语料库的持续预训练,Llama 2 7B模型在跨语言转移、任务泛化和语言适应性方面表现显著,尤其在少数语言上效果突出。研究强调了词汇扩展和持续训练的重要性。

EMMA-500:增强大规模多语言适应性的语言模型

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-09-26T00:00:00Z

通过对英语为主的生成大语言模型进行调整,以适应资源匮乏的语言,并评估了不同的策略,包括持续训练、指导微调、任务特定微调和词汇扩展。结果表明,持续训练改进了语言理解能力,任务特定微调一般提高了下游任务的性能,但扩展词汇未带来实质性的益处。此外,在适应时,较大的模型通过少样本微调可以提高任务性能,而多语言模型在适应时表现不如单语言模型。

LlamaTurk:为低资源语言适应开源生成型大语言模型

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-05-13T00:00:00Z
大语言模型如何构建强大的复杂推理能力|分析

本文介绍了提高大型语言模型推理能力的方法,包括预训练、持续训练、指令微调和强化学习等,同时介绍了高级提示工程技巧和评估模型推理能力的方法。文章还介绍了Chain-of-thought Hub,希望成为评估语言模型推理能力的统一平台。作者希望这篇文章能成为构建具有强大推理能力的开源模型的路线图。

大语言模型如何构建强大的复杂推理能力|分析

知乎每日精选
知乎每日精选 · 2023-05-10T03:01:37Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码