小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本研究提出了UTNet,一种将self-attention集成到卷积神经网络中的混合Transformer体系结构,用于增强医学图像分割。UTNet通过应用self-attention模块和相对位置编码,能够捕捉不同尺度的长程依赖关系,并在心脏磁共振成像中展现出优异的分割性能和鲁棒性。有望在其他医学图像分割中广泛应用。

ASSNet:用于微肿瘤和多器官分割的自适应语义分割网络

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-09-12T00:00:00Z

中山大学和Pixocial联合发布了CatVTON,一种轻量化模型架构,实现虚拟试衣功能。该模型简洁高效,只需VAE+UNet两个网络模块,参数量小。通过解锁训练,发现Self Attention是关键模块。CatVTON实现了SOTA的试穿效果,降低了模型的训练和推理计算需求。

寡姐带货国风Polo衫,马斯克穿牛仔走红毯!虚拟试衣新框架火了

量子位
量子位 · 2024-07-31T06:53:18Z

该文介绍了一种名为MSA-Conv的模型,它结合了Self-Attention和广义卷积,扩展了Transformer模型,使其能够处理不同尺寸的图像,降低了计算成本,并且通过增强策略实现了长距离连接和扩大的感受野。该模型在图像分类任务中表现出色,与目前最先进的方法具有可比性。

TiC: 探索卷积中的视觉变换器

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-10-06T00:00:00Z

该论文介绍了一种新型结构 TransGAN,用于图像生成任务,通过基于 transformers 的 grid self-attention 模块缓解内存瓶颈,采用数据扩增、修正归一化和相对位置编码等技术缓解训练不稳定问题。该模型在高分辨率图像生成上表现出极具竞争力的性能,并在 STL-10 数据集上创造了 10.43 的 Inception Score 和 18.28 的 FID 值。

高效遥感分割的生成对抗变换器

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-10-02T00:00:00Z

该研究使用Transformer-based大型语言模型,研究了其生成错误文本时的内部行为,并将事实查询建模为约束满足问题。通过研究11个数据集,研究提出了一种可以预测约束满足和事实错误、并且可以早期发现错误的self-attention模式探查方法SAT Probe。利用对大型语言模型中事实性的机械理解可以提高可靠性。

关注满足:论语言模型的事实错误的约束满足视角

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-09-26T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码