小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
解决“打地鼠困境”:一种更智能的去偏见AI视觉模型的方法

WRING是一种新型去偏见技术,通过调整模型中特定坐标的表示方式,减少目标概念的偏见,同时不增加其他领域的偏见。该方法高效且无需重新训练模型,适用于视觉语言模型(VLM),如CLIP模型。研究表明,WRING在减少偏见方面效果显著。

解决“打地鼠困境”:一种更智能的去偏见AI视觉模型的方法

MIT News - Artificial intelligence
MIT News - Artificial intelligence · 2026-04-29T21:40:00Z
你的logit值知道什么?(答案可能会让你惊讶!)

本文探讨了模型内部信息的探测及其潜在的信息泄露风险。通过对视觉语言模型的研究,比较了不同表示层级的信息保留情况,发现顶级logit值可能泄露与任务无关的信息。此外,文章讨论了静态残差变换在自回归生成中的效率与生成质量之间的权衡。

你的logit值知道什么?(答案可能会让你惊讶!)

Apple Machine Learning Research
Apple Machine Learning Research · 2026-04-20T00:00:00Z

该示例展示了如何使用vLLM在视觉语言模型上进行离线推理,处理多图像输入并生成文本,利用模型定义的对话模板。

【vLLM 学习】Vision Language Multi Image

HyperAI超神经
HyperAI超神经 · 2026-03-24T06:44:00Z
SafetyPairs:通过反事实图像生成隔离安全关键图像特征

本文介绍了SafetyPairs框架,生成仅在安全特征上不同的图像对,以区分安全与不安全的图像。通过图像编辑模型进行针对性修改,构建了一个包含3020个图像的安全基准,提升了视觉语言模型的评估能力,并改善了轻量级模型的训练效率。

SafetyPairs:通过反事实图像生成隔离安全关键图像特征

Apple Machine Learning Research
Apple Machine Learning Research · 2026-03-24T00:00:00Z
TrajTok:学习轨迹标记以提升视频理解

TrajTok是一种视频标记模块,通过动态调整标记粒度,解决视频模型中的标记冗余问题。它集成了统一的分割器,能够高效生成对象轨迹,提升视频理解性能。在分类和检索基准测试中表现优异,可作为预训练视觉特征的探测头或视觉-语言模型的连接器。

TrajTok:学习轨迹标记以提升视频理解

Apple Machine Learning Research
Apple Machine Learning Research · 2026-03-17T00:00:00Z
一种更好的复杂视觉任务规划方法

麻省理工学院的研究人员开发了一种基于生成性人工智能的长期视觉任务规划方法,成功率约为70%。该系统结合视觉-语言模型与正式规划能力,能够处理复杂视觉输入并生成有效规划,适用于多种实际应用。

一种更好的复杂视觉任务规划方法

MIT News - Artificial intelligence
MIT News - Artificial intelligence · 2026-03-11T04:00:00Z

本文介绍了如何使用vLLM进行离线推理,特别是在视觉语言模型中采用正确的提示格式进行文本生成。示例展示了多种模型的提示格式和参数设置,以确保在不同GPU上有效运行。

【vLLM 学习】Vision Language

HyperAI超神经
HyperAI超神经 · 2026-03-09T02:10:53Z

微软与清华提出BiPS模型,通过训练阶段教会模型关注关键视觉细节,解决视觉-语言模型在推理中的错误。BiPS利用“拉”和“推”机制,提升视觉理解能力,使模型在复杂任务中更准确地识别信息,推动通用智能的发展。

AI看图一本正经胡说八道?「一拉一推」让模型看得全又准|微软x清华

量子位
量子位 · 2026-02-08T06:08:46Z
MetaWorld——分层世界模型:融合 VLM 的语义推理能力、预测的未来动态环境、模仿学习的先验,及基于模型RL的对动态环境的在线自适应

本文介绍了MetaWorld,一个基于分层世界模型的机器人控制框架,旨在弥合高层语义理解与低层物理执行之间的鸿沟。该框架结合视觉-语言模型、模仿学习和强化学习的优势,通过分层架构进行任务解析和动作生成,提升机器人在动态环境中的适应性和泛化能力。

MetaWorld——分层世界模型:融合 VLM 的语义推理能力、预测的未来动态环境、模仿学习的先验,及基于模型RL的对动态环境的在线自适应

结构之法 算法之道
结构之法 算法之道 · 2026-02-07T10:14:29Z
“See_you“:“Next Moment“

未来,PaddleFormers将降低多模态模型的训练门槛,帮助开发者构建实际业务能力,推动多模态模型在更多场景中的应用。随着能力的提升,视觉语言模型将更好地理解和定位世界,PaddleFormers提供高效的训练工具,便于模型的微调与扩展。

“See_you“:“Next Moment“

百度大脑
百度大脑 · 2026-01-23T11:50:49Z
如何在自己的数据上对嵌入模型进行基准测试

选择合适的嵌入模型并不简单,但可以通过定制基准测试来改善。新课程教你如何利用视觉语言模型和大型语言模型进行文本提取和评估,克服Python库的局限性,生成评估问题,创建数据向量表示,并使用ranx库进行基准测试和可视化。

如何在自己的数据上对嵌入模型进行基准测试

freeCodeCamp.org
freeCodeCamp.org · 2026-01-15T15:49:38Z
GraspVLA——在互联网数据和十亿级规模合成动作数据SynGrasp-1B上预训练的抓取基础模型:基于渐进式动作生成PAG技术

GraspVLA是一种基于十亿级合成抓取数据集的机器人抓取模型,结合视觉语言模型和动作生成机制,提升了抓取技能的泛化能力。该模型通过渐进式动作生成方法,实现了仿真到现实的迁移,展现出优异的零样本性能。

GraspVLA——在互联网数据和十亿级规模合成动作数据SynGrasp-1B上预训练的抓取基础模型:基于渐进式动作生成PAG技术

结构之法 算法之道
结构之法 算法之道 · 2026-01-06T15:36:00Z
Midscene.js - 一个基于视觉语言模型的跨平台UI自动化框架,使用…

Midscene.js是一个跨平台的UI自动化框架,利用视觉语言模型进行视觉定位和交互。它支持自然语言描述自动化目标,提供JavaScript SDK和YAML脚本,适用于Web、Android和iOS,适合端到端UI测试和操作任务自动化,降低维护成本。

Midscene.js - 一个基于视觉语言模型的跨平台UI自动化框架,使用…

云原生
云原生 · 2025-12-26T10:34:26Z
低门槛试用Open-AutoGLM:屏幕理解+自动执行的智能体体验;Spatial-SSRL-81k构建空间感知的自监督提升路径

智谱AI推出手机端智能助理框架Open-AutoGLM,利用视觉语言模型实现屏幕内容的深度理解与自动化操作。用户可通过自然语言指令完成任务,系统确保安全性并支持远程调试,已覆盖50余款主流应用,逐步成为全场景智能助手。

低门槛试用Open-AutoGLM:屏幕理解+自动执行的智能体体验;Spatial-SSRL-81k构建空间感知的自监督提升路径

HyperAI超神经
HyperAI超神经 · 2025-12-15T07:10:51Z
2.5亿美元的文件

Coinbase、MSCI和Zscaler等公司的工程团队利用Resolve AI的AI SRE工具,使平均修复时间(MTTR)提高了5倍,开发效率提升了75%。Molmo是一种新型视觉语言模型,基于PixMo数据集,解决了现有模型的依赖问题,增强了视觉理解和推理能力。

2.5亿美元的文件

ByteByteGo Newsletter
ByteByteGo Newsletter · 2025-12-10T16:30:49Z
BALROG - A benchmark suite for evaluating agentic large language models and …

BALROG是一个开源基准套件,用于评估大语言模型(LLM)和视觉语言模型(VLM)在游戏任务中的推理与决策能力。它通过设计游戏任务和评测指标,帮助研究者比较不同模型的表现,支持模型选择与微调。该套件基于Python实现,采用模块化架构,关注决策过程的可测量性,并支持跨模态推理能力的评估。

BALROG - A benchmark suite for evaluating agentic large language models and …

云原生
云原生 · 2025-12-08T13:29:00Z
Jina-VLM:小型多语言视觉语言模型

jina-vlm是一个具有2.4B参数的视觉语言模型,支持29种语言的视觉问答,性能优越,适合消费级硬件。它结合了SigLIP2视觉编码器和Qwen3语言骨干,在多语言理解和视觉推理方面表现出色,并通过高效的注意力池化连接器减少视觉标记数量,保持多语言能力。

Jina-VLM:小型多语言视觉语言模型

Jina AI
Jina AI · 2025-12-04T18:57:53Z
百度出招!OCR模型PaddleOCR-VL打破管道与端到端方法局限;面部情感识别数据集Facial Emotion Recognition,赋能 AI 读懂表情

百度推出PaddleOCR-VL模型,结合视觉语言模型,支持109种语言,能够高效识别文本和表格等元素,资源消耗低,适合实际应用。

百度出招!OCR模型PaddleOCR-VL打破管道与端到端方法局限;面部情感识别数据集Facial Emotion Recognition,赋能 AI 读懂表情

HyperAI超神经
HyperAI超神经 · 2025-11-25T06:07:47Z
使用Amazon Nova模型实现自动化视频高光剪辑

本方案利用Amazon的Nova多模态模型,实现视频高光识别与剪辑。通过视觉-语言模型(VLM)理解视频,输出高光片段时间点,并结合多模态嵌入模型(MME)进行语义匹配,以提高识别准确性,适用于多种视频场景。

使用Amazon Nova模型实现自动化视频高光剪辑

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-11-19T01:14:16Z
VisionWeaver:从“现象识别”到“病因诊断”,开启AI视觉幻觉研究新篇章

VisionWeaver及其诊断工具VHBench-10有效解决了大型视觉语言模型中的“幻觉”问题。通过动态协作多个视觉专家,系统性诊断视觉能力短板,显著降低幻觉率,提升模型表现,为多模态AI的可靠性提供新路径。

VisionWeaver:从“现象识别”到“病因诊断”,开启AI视觉幻觉研究新篇章

实时互动网
实时互动网 · 2025-11-14T06:12:59Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码