小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

通过研究预训练视觉语言模型在医学图像领域的知识传递能力,发现合理设计的医学提示语可以改进泛化能力,提高零样本性能。通过自动化生成医学提示的三种方法,可以注入专家级的医学知识和图像特定信息,进行信息定位。试验表明,巧妙设计的医学提示显著提高了零样本性能,且超过了受监督的模型。

医学影像语言模型中的视觉提示工程研究

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-28T00:00:00Z

该研究发现预训练视觉-语言模型与先进适应方法相结合在深假检测中有效。通过简单的Prompt Tuning适应策略,使用较少的训练数据,超过先前方法5.01%和6.61%。在21个数据集的测试中,该模型展现了实际适用性。

C2P-CLIP:在CLIP中注入类别公共提示以增强深伪检测的泛化能力

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-19T00:00:00Z

本研究探索了预训练视觉-语言模型在智能生成图像的检测中的潜力。通过基于CLIP特征的轻量级检测策略,发现不需要大量特定领域数据集训练,仅利用少量示例图像即可展现出泛化能力,并在商业工具中具有高鲁棒性。在分布内数据上与SoTA相匹配,分布外数据的泛化能力和鲁棒性有显著改进。

AddressCLIP: 基于视觉语言模型的城市图片地址定位

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-07-11T00:00:00Z

本文研究了使用预训练视觉-语言模型进行开放词汇的时序动作定位,并通过自训练和引入伪标签数据集来提高动作定位器的泛化能力。同时提出了新的评估协议来解决现有评估方案的问题。

自我训练在开放词汇时间行为定位中的可扩展性探索

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-07-09T00:00:00Z

该研究发现预训练视觉-语言模型与先进适应方法相结合在深假检测中有效。通过简单的适应策略,使用较少的训练数据,该模型在准确率上超过先前方法。在严格测试中,该模型在不同数据集中展现了实际适用性。

对抗式学习的鲁棒音频深度伪造检测(CLAD)

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-04-24T00:00:00Z

我们提出了一种轻量级的无监督联邦学习方法,通过利用每个客户端上的无标签数据进行模型训练和通信,解决监督式联邦学习中的挑战。该方法利用预训练的视觉-语言模型和图像编码器,改进无标签实例的初始预测,并采用类平衡文本特征采样策略以解决数据异质性。实验证明该方法显著提升模型性能。

轻量级无监督的预训练视觉语言模型联邦学习

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-04-17T00:00:00Z

本研究探索了预训练视觉-语言模型在智能生成图像的检测中的潜力。通过基于CLIP特征的轻量级检测策略,发现不需要大量特定领域数据集训练,仅利用少量示例图像即可展现出泛化能力,并在商业工具中具有高鲁棒性。在分布内数据上与SoTA相匹配,在分布外数据的泛化能力和受损/清洗数据的鲁棒性上有显著改进。

基于模型无关的少样本示例的生成图像起源归因

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-04-03T00:00:00Z

本研究探索了预训练视觉-语言模型在智能生成图像的检测中的潜力。通过基于CLIP特征的轻量级检测策略,发现不需要大量特定领域数据集训练,仅利用少量示例图像即可展现出泛化能力,并在商业工具中具有高鲁棒性。在分布内数据上与SoTA相匹配,并在分布外数据的泛化能力和鲁棒性上实现了显著改进。

面向医学图像的通用异常检测的视觉语言模型的适应

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-03-19T00:00:00Z

本研究探索了预训练视觉-语言模型在智能生成图像的检测中的潜力。通过基于CLIP特征的轻量级检测策略,发现不需要大量特定领域数据集训练,仅利用少量示例图像即可展现出泛化能力,并在商业工具中具有高鲁棒性。在分布内数据上与SoTA相匹配,并在分布外数据和受损/清洗数据上实现了显著改进。

CLIP 是否总是比 ImageNet 模型具有更好的泛化能力?

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-03-18T00:00:00Z

本研究探索了预训练视觉-语言模型在智能生成图像的检测中的潜力。通过基于CLIP特征的轻量级检测策略,发现不需要大量特定领域数据集训练,仅利用少量示例图像即可展现出泛化能力,并在商业工具中具有高鲁棒性。在分布内数据上与SoTA相匹配,在分布外数据的泛化能力和受损/清洗数据的鲁棒性上有显著改进。

CLIPping the Deception: 转变视觉语言模型以适应通用深度伪造检测

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-02-20T00:00:00Z

本研究探索了预训练视觉-语言模型在智能生成图像的检测中的潜力。通过基于CLIP特征的轻量级检测策略,发现不需要大量特定领域数据集训练,仅使用少量示例图像即可展现出泛化能力,并在商业工具中具有高鲁棒性。在分布内数据上与SoTA相匹配,在分布外数据的泛化能力和鲁棒性上有显著改进。

CLIP 引导的无源目标检测在航空图像中

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-01-10T00:00:00Z

本文介绍了一种利用预训练视觉-语言模型进行进一步调整的方法,使其能够适应新任务而不仅仅是零样本学习。通过在预训练的CLIP模型上增加附加层,并对线性适配器、自注意适配器以及修改CLIP文本编码器输入的提示调整进行研究,实验证明最简单的解决方案获得了最佳结果。这种方法显著改进了现有技术水平。

CLAP:对预先训练的视觉语言模型鲁棒性的增强提示对比学习

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-11-28T00:00:00Z

机器学习模型在自然语言处理和计算机视觉领域取得了革命性进展,但研究人员发现这些模型可能存在社会偏见,导致不公平代表。最近的研究关注预训练视觉语言模型中的社会偏见,本调查提供了关于该领域的见解和减轻偏见的指导。结果和建议有助于开发更公平和无偏的人工智能模型。

视觉中可信大规模模型:调查

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-11-16T00:00:00Z

该研究提出了一种名为CaRot的方法,用于提高预训练视觉-语言模型在内部和外部数据集上的校准性和鲁棒性。验证结果证明了该方法的有效性。

迈向经过校准的鲁棒视觉语言模型微调

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-11-03T00:00:00Z

本文研究了预训练视觉语言模型在医学图像领域的知识传递能力,发现医学提示语是调用预训练模型知识的关键。通过共享的表达属性提示,可改进泛化能力,提高对新对象的识别。通过三种方法自动生成医学提示,注入专家级知识和图像特定信息,提高零样本性能。微调模型超过了受监督的模型。

基于视觉 - 语言模型在医学图像分割中的迁移学习探索

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-08-15T00:00:00Z

本研究探讨了预训练视觉语言模型在医学图像领域的知识传递能力,发现医学提示语的合理设计是调用预训练模型知识的关键。通过共享表达属性提示,可实现知识跨越领域,改进泛化能力。通过三种自动生成医学提示的方法,可以注入专家级知识和图像特定信息,提高零样本性能。微调模型超过了受监督的模型。

基于视网膜的基础语言 - 图像模型(FLAIR):通过文本监督编码专业知识

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-08-15T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码