小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本研究探讨大型语言模型(LLMs)在对话中的语言适应行为,发现其语法选择会随着对话进展而趋同,表明LLMs能够适应对话伙伴的语言使用,从而提升对话能力。

How Large Language Models Adapt Their Grammar to Conversational Partners

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-10T00:00:00Z
如何在C++中进行国家语言适应

丹妮拉·恩格特在NDC TechTown演讲中强调,客户应积极参与国家语言适应,使用熟悉的工具。她提到GetText工具可简化翻译过程,鼓励客户参与开发,并关注客户需求,提供易用的解决方案,以便客户轻松修改翻译文件。尽管C++标准库不计划纳入语言适应功能,但应继续将C++作为特定应用的工具。

如何在C++中进行国家语言适应

InfoQ
InfoQ · 2024-12-26T11:11:00Z

本研究探讨了小型语言模型在中等资源语言中的适应性,特别是如何有效利用语言特定知识。通过冰岛语的案例研究,提出在前馈层和瓶颈适配器中使用LoRA以增加可训练参数,从而显著提升语言适应性能,尤其在0-shot摘要任务中表现优异。

Train More Parameters, But Mind Their Placement: Insights into Language Adaptation with PEFT

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-17T00:00:00Z

本研究提出两种新方法,以提高多轮意图分类的准确性和效率,解决数据稀缺和对话上下文复杂性的问题。通过使用大型语言模型进行符号调优和语言适应检索增强,分类准确率提升5.09%,标注成本降低40%,对低资源多语言系统具有重要意义。

Balancing Accuracy and Efficiency in Multi-Turn Intent Classification: LLM-Driven Dialog Systems for Production Environments

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-11-19T00:00:00Z

研究探讨如何通过调整现有大语言模型来创建特定语言模型。实验分析了基础模型选择、词汇扩展和持续微调对模型效率和任务表现的影响。结果表明,初始性能不一定代表最终性能,简单的词汇扩展和微调可以提高效率,适应方法因语言而异。以英语为中心的模型在资源稀缺语言上表现更好。该研究为高效构建语言专属模型提供了基础。

评估大语言模型作为函数逼近器的能力:贝叶斯视角

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-06T00:00:00Z

该研究基于稀疏专家混合(SMoE)语言模型的 Mixtral,提出了 Chinese-Mixtral 和 Chinese-Mixtral-Instruct,通过预训练和微调改进了中文语言能力,保留了英语能力。研究讨论了语言适应的关键问题,并提供了实证结果和分析。研究资源在 https://github.com/ymcui/Chinese-Mixtral 公开提供。

重新思考 LLM 语言适应:以中文 Mixtral 为案例研究

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-03-04T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码