小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
沉浸式翻译 immersive translate
Transformers v5引入了更模块化和互操作的核心

Hugging Face发布了Transformers v5的首个候选版本,强调互操作性和简化,采用模块化架构,主要支持PyTorch。新增的“transformers serve”组件便于模型部署,量化成为重要概念,旨在巩固Transformers作为开放AI开发的基础设施。

Transformers v5引入了更模块化和互操作的核心

InfoQ
InfoQ · 2025-12-16T16:45:00Z

何恺明重磅新作:Just image Transformers让去噪模型回归基本功

机器之心
机器之心 · 2025-11-19T02:49:41Z

人民大学&字节Seed:利用μP实现Diffusion Transformers高效扩展

机器之心
机器之心 · 2025-06-26T06:22:12Z
使用Ollama、vLLM或Transformers本地安装DeepSeek-R1-0528的逐步指南

升级版DeepSeek-R1-0528在开源AI领域取得显著进展,超越多款知名闭源模型。其智能算法和大规模计算提升了数学、编程和逻辑推理能力,准确率从70%提高至87.5%。提供三种简单的本地安装方法,满足不同用户需求。

使用Ollama、vLLM或Transformers本地安装DeepSeek-R1-0528的逐步指南

DEV Community
DEV Community · 2025-05-29T20:28:00Z

Learn how pgstream v0.6 simplifies complex data transformations with custom templates, enhances observability and improves snapshot performance.

Ahmet Gedemenli: pgstream v0.6.0: Template transformers, observability, and performance improvements

Planet PostgreSQL
Planet PostgreSQL · 2025-05-29T12:45:04Z

本文探讨了自注意力机制在图信号处理中的局限性,提出了一种新方法——注意力图滤波器(AGF),通过奇异值域建模,提高了频率信息的利用效率。实验结果表明,AGF在多个任务中表现优异。

Learning Advanced Self-Attention of Linear Transformers in the Singular Value Domain

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-13T00:00:00Z

本研究提出了一种新的纵向表转换器(LTT)模型,以提高电力供应商在自然灾害中估计电力恢复时间(ETR)的准确性。分析了34,000个故障事件后,LTT模型的客户满意度指标平均提高了19.08%。

Using Longitudinal Table Transformers to Estimate Power Outage Restoration Times

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-01T00:00:00Z

本研究探讨了视觉变换器(ViTs)在植物疾病检测中的应用,克服了传统农业技术在可扩展性和准确性方面的局限性。ViTs在处理长距离依赖性方面表现优越,可能对现代农业产生重要影响。

Application of Vision Transformers in Precision Agriculture: A Comprehensive Survey

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-30T00:00:00Z

This post is divided into five parts: • Understanding the RAG architecture • Building the Document Indexing System • Implementing the Retrieval System • Implementing the Generator • Building the...

Building RAG Systems with Transformers

MachineLearningMastery.com
MachineLearningMastery.com · 2025-04-23T15:35:03Z

This post is divided into seven parts; they are: • Core Text Generation Parameters • Experimenting with Temperature • Top-K and Top-P Sampling • Controlling Repetition • Greedy Decoding and...

Understanding Text Generation Parameters in Transformers

MachineLearningMastery.com
MachineLearningMastery.com · 2025-04-21T10:38:33Z

本文提出了一种新颖的伪变换器框架,旨在解决弱监督时间行为定位中的时间标注缺失问题。通过引入RickerFusion生成高质量伪标签,优化训练过程,该方法在THUMOS14和ActivityNet1.3数据集上取得了优异的效果。

Bridging the Gap: Utilizing Pseudo Transformers for Temporal Action Localization from Weak Supervision to Full Supervision

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-21T00:00:00Z

本研究提出三种简单的修改,使普通变换器在图学习中有效应用,显著提升多种图数据集的性能,并在图同构性测试中表现优异。

Simplifying Transformers in Graph Neural Networks

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-17T00:00:00Z

This post is divided into three parts; they are: • Understanding Context Vectors • Visualizing Context Vectors from Different Layers • Visualizing Attention Patterns Unlike traditional word...

Generating and Visualizing Context Vectors in Transformers

MachineLearningMastery.com
MachineLearningMastery.com · 2025-04-14T18:04:44Z

本研究提出MiMu方法,旨在解决模型依赖特征与标签之间的虚假相关性,减轻捷径学习现象,从而提高模型的稳健性和泛化能力。实验结果表明,该方法在自然语言处理和计算机视觉任务中显著增强了模型的鲁棒性。

MiMu: Mitigating Multiple Shortcut Learning Behaviors in Transformers

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-14T00:00:00Z

本文提出RCCFormer网络,通过多级特征融合和自适应尺度感知模块,提高了在人群计数中的准确性,尤其在复杂背景和规模变化下,实验结果表明其优于传统方法。

RCCFormer: A Robust Crowd Counting Network Based on Transformers

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-07T00:00:00Z

本研究质疑专家混合模型(MoE)路由器对语义特征的依赖,强调位置标记信息在路由决策中的重要性,并通过实证分析进行了验证。

Spatial Structure of Mixture of Experts in Transformers

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-06T00:00:00Z

This post is divided into three parts; they are: • What Is Auto Classes • How to Use Auto Classes • Limitations of the Auto Classes There is no class called "AutoClass" in the transformers library.

Using Auto Classes in the Transformers Library

MachineLearningMastery.com
MachineLearningMastery.com · 2025-04-05T02:03:47Z

This post is divided into three parts; they are: • Understanding Text Embeddings • Other Techniques to Generate Embedding • How to Get a High-Quality Text Embedding? Text embeddings are to use...

Text Embedding Generation with Transformers

MachineLearningMastery.com
MachineLearningMastery.com · 2025-04-04T05:08:31Z

Learn more about this handy resource created by Afshine and Shervine Amidi for Stanford's CME 295 course.

VIP Cheatsheet: Transformers & Large Language Models

KDnuggets
KDnuggets · 2025-03-31T12:00:16Z

本研究探讨了视觉变换器在处理扭曲图像时的可解释性,发现深层注意力头对任务的影响显著,揭示了模型功能的专业化,增强了理解和透明度。

Mechanistic Interpretability of Fine-tuned Vision Transformers for Distorted Images: Decoding Attention Head Behavior for Transparent and Trustworthy AI

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-24T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码