小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本文提出了一种新的参数高效的跨语言转移学习框架,通过基于翻译的对齐方法来减少多语言差异,并采用微调方法来提高效率。实验证明,该框架在跨语言转移方面取得了显著改进,尤其在低资源场景下,只需保留和微调极少量的参数。

面向视觉 - 语言模型的跨模态向后兼容表示学习

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-05-23T00:00:00Z

大型言语模型(LLM)取得突破性进展,混合专家模型(MoE)应运而生。DeepSeek-V2-Lite是轻量级的MoE模型,参数量减少近10倍,但功能不减。该模型在多个基准测试中表现优异,适用于低资源场景和高效推理。MoE模型研讨取得重大进展,为人工智能带来更多可能性。

轻量级MoE模型DeepSeek-V2-Lite: 16B参数,2.4B活跃参数,40G可部署,高效的MoE模型

六虎
六虎 · 2024-05-21T00:04:10Z

该论文介绍了一种解决低资源场景下关系抽取的方法,通过自监督学习和对比学习进行预训练和微调。实验证明该方法在使用1%数据时,性能提高了10.5%和5.8%。

协同锚定对比式预训练在少样本关系抽取中的应用

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-12-19T00:00:00Z

本文提出了一种新的参数高效的跨语言转移学习框架,利用基于翻译的对齐方法来缓解多语言差异,并探索参数高效的微调方法。经过实验表明,该框架显著减少了语言之间的差异,并在跨语言转移方面取得了改进,尤其在低资源场景中,同时只保留和微调极少量的参数。

CAPIVARA:在资源有限的语言中提高多语言 CLIP 性能的成本效益方法

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-10-20T00:00:00Z

本文提出了一种新的参数高效的跨语言转移学习框架,利用基于翻译的对齐方法来缓解多语言差异,并探索参数高效的微调方法。实验表明,该框架显著减少了语言之间的差异,在跨语言转移方面取得了改进,尤其在低资源场景中,同时只保留和微调极少量的参数。

在跨语言迁移范式中衡量灾难性遗忘:探索调整策略

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-09-12T00:00:00Z

本文提出了一种新的参数高效的跨语言转移学习框架,通过基于翻译的对齐方法缓解多语言差异,并探索参数高效的微调方法。实验证明,该框架显著减少了语言之间的差异,在跨语言转移方面取得了改进。尤其在低资源场景中,只需保留和微调极少量的参数,相比全模型仅需0.16%的额外参数。

CLIPTrans:基于预训练模型的多模态机器翻译中的视觉知识迁移

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-08-29T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码