小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
稳定扩散模型在视觉上下文学习中表现优异

稳定扩散模型在视觉上下文学习(V-ICL)中表现优异,能够在无需额外微调的情况下适应前景分割和边缘检测等六种任务。通过在自注意力层中重新计算注意力,模型有效利用示例提示,提升任务性能。例如,在Pascal-5i数据集上,前景分割任务的平均交并比提高了8.9%。该方法还通过集成多个提示进一步改善了推断效果。

稳定扩散模型在视觉上下文学习中表现优异

Apple Machine Learning Research
Apple Machine Learning Research · 2025-10-07T00:00:00Z

本文通过考虑自适应度量标准,如Shapley值,探讨了不同的块重要性度量标准,并将分析从完整的块扩展到单个自注意力和前馈层。结果显示,自注意力层更容易修剪,甚至可以删除多达33%的自注意层而不会对Mistral 7b的MMLU性能造成任何降低。通过训练轻量级的加性偏差或低秩线性适配器来模拟修剪的层的性能恢复,避免了初始块的性能下降。这种模拟更新的性能恢复要么是竞争性的,要么是优于基于学习的技术。

深入探究语言模型的深度修剪

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-07-23T00:00:00Z

本研究提出了一种利用GLCM的多尺度特征和可微分GLCM的损失函数,并引入了自注意力层,以提高基于GANs的低剂量CT去噪算法的性能。实验结果表明,该方法相比其他损失函数表现更好,且结果在三种不同GAN架构下保持一致。

基于 GAN 的 CT 去噪的多尺度纹理损失

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-03-25T00:00:00Z
深入解析随机 Transformer [译]

本文介绍了解码器模块的工作原理,包括自注意力层、残差连接和层归一化、编码器-解码器注意力层和前馈层。解码器通过自回归方式生成输出序列的下一个token,并利用编码器的输出进行注意力互动。最后,通过线性层和softmax层将解码器的输出转换成概率,并使用贪婪解码选择最可能的下一个token。文章还提供了一个随机编码器-解码器Transformer的示例,并介绍了生成输出序列的过程。

深入解析随机 Transformer [译]

宝玉的分享
宝玉的分享 · 2024-01-03T12:07:00Z

本文介绍了Transformer模型的底层架构和功能,包括注意力机制、嵌入表示层、自注意力层、前馈层、残差连接和层归一化等。文章还提供了基于Transformer的编码器和解码器的实现代码,并展望了GPT无监督预训练、有监督微调和基于HuggingFace的预训练语言模型实践。

大语言模型底层架构丨带你认识Transformer

华为云官方博客
华为云官方博客 · 2023-12-06T09:24:40Z

本文介绍了一种名为门控位置自注意力的机制,它结合了卷积神经网络的空间学习和自注意力层的位置不变性。作者使用这种机制构建了混合卷积 - 自注意力神经网络 ConViT,并在 ImageNet 数据集上进行了实验,结果表明该网络在图像分类任务上表现出色,具有更高的样本效率和对定位特征的更好注意力。

CNN 还是 ViT?透过卷积再探视觉 Transformer

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-09-11T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码