小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
FocalLens:指令调优实现零-shot条件图像表示

FocalLens是一种条件视觉编码方法,通过自然语言指令生成不同的图像表示,能够更好地突出视觉特征,提升图像检索和分类任务的性能,平均提高5到10分。

FocalLens:指令调优实现零-shot条件图像表示

Apple Machine Learning Research
Apple Machine Learning Research · 2025-04-14T00:00:00Z

本研究提出了一种新型合成认知方法,旨在提升变压器架构的推理能力。该方法在DNA序列分类任务中表现优于传统模型,显示出其在序列任务中的潜力与优势。

Surpassing Transformer Technology with Synthetic Cognition

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-10T00:00:00Z

本研究探讨了大型语言模型在分类任务中提示格式的影响,比较了项目符号与普通英语格式。结果表明,项目符号格式通常效果更佳,但存在例外,需进一步研究以提升模型性能。

选择格式对大型语言模型性能的影响

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-10T00:00:00Z

本研究探讨了区分人类生成文本与大型语言模型(LLM)生成文本的挑战,提出了基于LLM的检测和解释方法。结果表明,LLM在检测自身生成文本时表现优于他人生成文本,但仍需改进。将二分类任务扩展为三分类任务显著提高了检测准确性和解释质量。

"I Know Myself, But Not Really Deeply": Using Large Language Models to Detect and Explain LLM-Generated Texts

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-18T00:00:00Z

本研究提出了一种基于视觉变换器的双流自监督预训练网络ViT-2SPN,旨在解决OCT诊断工具的数据集不足和隐私问题。通过OCTMNIST数据集进行自监督预训练,该方法在分类任务中实现了0.93的平均AUC和0.77的准确率,显著优于现有方法。

Vision Transformer-based Dual-Stream Self-Supervised Pretraining Network for Retinal OCT Classification

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-28T00:00:00Z

本研究提出了一种自监督变换学习方法,解决了传统无监督表示学习中因依赖变换标签导致的性能下降问题。该方法通过生成图像对的变换表示,提升了分类和检测任务的表现,尤其在检测任务中展现出优越的适应性和灵活性。

Self-supervised Transformation Learning for Equivariant Representations

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-15T00:00:00Z

TensorFlow Quantum是一个开源库,支持混合量子-经典模型的设计与训练。研究提出了多种量子神经网络(QNN)模型,探讨了其在分类任务中的应用及优化方法,展示了量子计算在机器学习中的潜力。

单量子比特量子神经网络的回归与分类

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-12T00:00:00Z

本研究提出了JAPAGEN方法,利用大语言模型生成日语训练数据,有效解决了LLM在其他语言任务中的应用问题。实验结果显示,JAPAGEN在六个日语任务中表现优异,特别是在分类任务上与传统方法效果相当。

JAPAGEN: Efficient Few/Zero-shot Learning via Japanese Training Data Generation with Large Language Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-09T00:00:00Z

本研究提出了一种新框架,通过重用预调优的LoRA,解决视觉基础模型在有限数据下的无调优少样本适应性问题。实验结果表明,该框架在少样本分类任务中表现优异,并显著加速了元训练过程。

Unlocking Tuning-Free Few-Shot Adaptability in Visual Foundation Models: Recycling Pre-Tuned LoRAs

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-03T00:00:00Z

本研究提出了一种新方法,通过引入中间层改善梯度传播,提升动态稀疏训练在大输出空间分类任务中的效率,恢复密集模型的泛化性能,实现高效训练。

极端环境下的动态稀疏性:大输出空间中的应用

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-11-05T00:00:00Z

本研究提出了新的基准测试框架MLLMU-Bench,以解决多模态大语言模型在隐私保护方面的不足。研究表明,单模态遗忘算法在生成和填空任务中表现优异,而多模态遗忘方法在分类任务中更为有效。

利用MLLMU-Bench保护多模态大语言模型的隐私

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-29T00:00:00Z
大型语言模型在多任务中的水印性能权衡

研究发现,在大型语言模型中嵌入水印会影响其性能。水印通过增加词频率形成可检测模式,但可能导致分类、问答和文本生成任务的性能下降。分类任务性能平均下降10-20%,最差可达100%。建议在使用水印时权衡性能影响,并进一步优化水印方法。

大型语言模型在多任务中的水印性能权衡

DEV Community
DEV Community · 2024-10-22T11:24:04Z

本研究提出了一种上下文感知提示调优(CPT)方法,以解决少量样本学习中的过拟合问题。CPT结合上下文学习和对抗攻击,优化训练示例的上下文嵌入,显著提升多个分类任务的准确性,展现出良好的应用潜力。

上下文感知提示调优:利用对抗方法推进上下文学习

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-22T00:00:00Z

本研究提出了一种自监督预训练技术,通过优化提示压缩解决模型迁移性不足的问题。Selection-p在多个分类任务中表现优异,压缩率达10倍,性能仅下降0.8%,并在不同模型间具有更好的迁移性。

选择性-p:自监督任务无关提示压缩的真实性和可迁移性

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-15T00:00:00Z

本研究提出了一种新的块表示方法ChuLo,解决Transformer模型在处理长文档时的信息损失和计算限制问题。ChuLo通过无监督提取关键信息,将输入令牌分组,保留文档核心内容,提高处理效率。实验结果表明,该方法在长文档分类和令牌分类任务上效果显著。

ChuLo:针对长文档处理的块级关键信息表示

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-14T00:00:00Z

研究提出了一种利用答案集编程(ASP)生成树集成学习模型解释规则的方法。通过分解法和模式挖掘提升模型的透明度和灵活性,适用于分类任务。研究展示了多种提取规则的方法,如inTrees框架和TE2Rules,增强了模型的可解释性。

通过答案集编程生成树集成学习方法的全局和局部解释

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-14T00:00:00Z

大型语言模型在零样本和小样本任务中表现优异,但可能受到任务污染的影响。研究显示,LLMs在训练数据创建日期之前的数据集上表现良好,表明存在任务污染。通过检查训练数据,发现更多证据。在无任务污染的分类任务中,LLMs在零样本和小样本设置下的改进有限。

受污染视觉语言模型的清洁评估

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-09T00:00:00Z

该研究提出了Lou数据集,以解决德语文本分类中性别公平语言资源不足的问题。数据集包含七个分类任务,发现性别公平语言显著影响分类结果,如标签翻转和注意力模式变化,但现有评估方法仍然有效。这些发现可能适用于其他语言。

Lou数据集——探索性别公平语言在德语文本分类中的影响

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-09-26T00:00:00Z

该文章介绍了一种新的视觉Transformer(ViT)架构,使用超像素非规则标记化策略提取图像特征。该方法在提升归因真实性和零样本无监督密集预测任务中有显著改进。实验结果表明,该方法在分类任务中表现出色,并提供了更丰富的Transformer空间。

SPiT:超像素驱动的非规则ViT标记化,实现更真实的图像理解 | ECCV 2024 - 晓飞的算法工程笔记

晓飞的算法工程笔记
晓飞的算法工程笔记 · 2024-09-12T04:11:00Z

本研究使用预训练语言模型对阿拉伯社交媒体内容进行研究,发现微调方法在分类任务上取得了最高结果,f1-micro分数为0.865,f1-weighted分数为0.861。少样本学习技术可以提高GPT模型结果达20%。

在ArAIEval共享任务中的MemeMind:识别阿拉伯文本中的劝说性段落及其劝说技巧

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-08T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码