小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
最便宜的城区 NOA 车型!全新极狐阿尔法 T5 新增增程版,10.98 万元起

全新极狐阿尔法 T5 增程版起售价 10.98 万元,具备城区 NOA 和智能泊车功能,续航可达 1215km,设计简约且内饰配置丰富,提升驾驶体验,有效解决传统增程车的续航和噪音问题。

最便宜的城区 NOA 车型!全新极狐阿尔法 T5 新增增程版,10.98 万元起

爱范儿
爱范儿 · 2025-10-28T14:10:22Z

小马智行与北汽新能源联合推出的第300台极狐阿尔法T5 Robotaxi下线,标志着千台Robotaxi车队目标的推进。该车型具备L4级自动驾驶能力,预计将在国内一线城市投放,并探索国际市场。

第300台极狐阿尔法T5无人车下线,小马智行冲刺千台Robotaxi车队

量子位
量子位 · 2025-10-24T13:04:17Z
使用T5和Transformers实现多语言翻译

本文介绍了如何使用T5模型和Hugging Face Transformers库构建多语言翻译系统,包括设置翻译管道、生成翻译选项和评估翻译质量。T5模型通过条件生成实现文本翻译,支持多种语言对,用户可调整参数以获得不同翻译结果,并使用BLEU分数评估翻译质量。

使用T5和Transformers实现多语言翻译

MachineLearningMastery.com
MachineLearningMastery.com · 2025-03-23T16:32:59Z

GLM是一种通用语言模型,通过自回归填空预训练,结合2D位置编码和混合任务训练,提升了自然语言理解与生成的性能。实验表明,GLM在多个任务上优于BERT和T5,展现了其灵活性和可推广性。

论文分享:GLM: General Language Model Pretraining

京东科技开发者
京东科技开发者 · 2025-03-05T03:04:55Z

本研究提出了一种基于Flan-T5的编码解码模型FlanEC,旨在改善自动语音识别中的语言和语法错误。通过扩展训练数据和多样化数据集,显著提升了错误修正效果。

FlanEC:探索Flan-T5用于自动语音识别后错误修正

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-22T00:00:00Z

本研究解决了约鲁巴文自动加音系统评估的缺乏标准数据集的问题,提出了约鲁巴文自动加音基准数据集(YAD)。通过对T5模型进行预训练,我们证明该模型在多个多语言训练的T5模型中表现优越,且更多的数据和更大的模型有助于提高约鲁巴文的加音效果。

YAD:利用T5改进约鲁巴文自动加音系统

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-28T00:00:00Z
微调T5-Small模型以实现全新语言的翻译:林布语

本文探讨了如何微调T5-Small模型以实现英语与尼泊尔林布语的翻译。我们创建了一个包含1500对翻译的JSON数据集,并在Google Colab中设置环境,加载预训练模型,进行数据标记和模型训练。最终通过BLEU分数评估翻译准确性,展示了NLP在保护和促进少数语言方面的潜力。

微调T5-Small模型以实现全新语言的翻译:林布语

DEV Community
DEV Community · 2024-12-21T00:59:11Z

本研究比较了临床T5模型与FLAN调优的通用T5模型在临床数据上的表现,结果显示临床T5模型在某些任务上仅有微小提升,且在不同领域的评估中表现较差,为未来临床大语言模型的开发提供了指导。

Is the Clinical T5 Model More Suitable for Clinical Text?

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-08T00:00:00Z

本研究提出了一种新颖的生成模糊系统框架(GenFS),结合深度学习与模糊系统,以改善生成模型的输出理解与控制。FuzzyS2S模型在多个任务中表现优于传统的Transformer及先进模型T5和CodeT5。

生成模糊系统用于序列生成

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-11-21T00:00:00Z
如何使用Hugging Face Transformers微调T5模型以提升问答任务的性能

本文介绍了如何微调Hugging Face的T5模型以提升其问答能力。通过安装必要库、加载和预处理BoolQ数据集,最后利用Trainer API进行训练和评估,T5能够更好地理解问题并生成正确答案。这一过程对聊天机器人和搜索引擎等应用具有重要意义。

如何使用Hugging Face Transformers微调T5模型以提升问答任务的性能

KDnuggets
KDnuggets · 2024-10-31T14:00:04Z

团队SCaLAR在《SemEval-2024任务5》中提出了一种无监督方法,通过相似度和距离生成标签,解决法律论证的二元分类问题。结合CNN、GRU、LSTM和Legal-Bert嵌入,处理法律文本复杂性。引入基于T5的分段摘要,提升模型性能。无监督系统在开发集和测试集上分别提高了20和10个百分点,显示了其有效性。

LEGAL-UQA:一个低资源的乌尔都语-英语法律问答数据集

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-16T00:00:00Z

我们开发了ComplexityNet,一个精简的语言模型,用于评估任务复杂性。在Python问题上的准确率达到79%,远高于未微调模型的34%。ComplexityNet减少了90%的计算资源,代码生成准确性保持在86.7%。研究表明,微调小模型可以在准确性和效率之间取得平衡,为资源有限的环境提供优化方案。

任务复杂性:用于任务复杂性分类的数据集及其在In-Context Learning、FLAN-T5和GPT-4o基准测试中的应用

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-09-30T00:00:00Z

该论文综述了大型语言模型的知识蒸馏技术,包括白盒和黑盒蒸馏方法,评估任务和蒸馏效果,并提出了未来研究方向。为研究人员提供了有价值的资源。

利用蒸馏技术进行文档理解:以FLAN-T5为案例研究

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-09-17T00:00:00Z

将语音理解能力整合到预训练的大型语言模型已成为一个重要的研究方向。我们提出了 BESTOW 架构,将两个世界中的最佳特征整合到一个单一的模型中,具有高效和强大的多任务能力。同时,我们改进了可流式处理的 SpeechLLM,并展示了在广泛的语音任务上取得了非常强的性能。

BESTOW: GPT 和 T5 中最佳的两种世界的高效和可流式语音语言模型

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-28T00:00:00Z

本研究提出了一种名为LLM-TTA的技术,通过增强方法改善BERT和T5模型在情感、毒性和新闻分类任务上的鲁棒性,同时减少增强数量。该技术适用于不同任务模型和资源环境。

BayTTA: 使用贝叶斯模型平均优化测试时间增强的不确定性感知医学图像分类

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-25T00:00:00Z

本文介绍了一种使用链式思维方法(THOR)进行情感表达的大型语言模型指令调整的方法。通过推理修订和发言人情绪状态的修订,该方法在竞赛中取得了不错的成绩。

nicolay-r 参加 SemEval-2024 任务 3:在情绪状态的对话中使用 Flan-T5 进行情绪推理原因的链式思维

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-04-04T00:00:00Z

指令调优是改善大型语言模型对未知任务性能的方法,通过最大化语义上等效的指令实例对的相似性,最小化不同语义的实例对之间的相似性。实验证明,对比指令调优能够提升大型语言模型对未知指令的稳健性,平均准确率提高了2.5%。

FLawN-T5: 法律推理的有效指导调整数据混合的实证研究

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-04-02T00:00:00Z

本文介绍了开发mLongT5的工作,它是一种适用于处理长输入的多语言高效文本到文本转换器。作者评估了该模型在多语言摘要和问答任务上的表现,并与mBART和M-BERT进行了比较,结果显示mLongT5性能更强。

多语句 - T5:可扩展的多语句编码器适用于多语言应用

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-03-26T00:00:00Z

本文研究了无监督原始数据改善自然语言模型预训练的方法,提出了三种替代BERT的预训练目标,并介绍了自监督预训练任务与下游应用结构对齐的方法,展示了在多个任务上的性能提升。

SpacTor-T5: 使用跨度破坏和替换标记检测预训练 T5 模型

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-01-24T00:00:00Z

本文介绍了GPT、BERT、T5、GPT2和GPT3等语言模型及其应用,包括语言理解、迁移学习和问答任务。还提及了Chinchilla、LLaMA和HyDE等模型优化方法和技术。文章为语言模型提供了阅读清单。

大语言建模阅读清单

极道
极道 · 2024-01-10T09:04:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码