视觉中可信大规模模型:调查
原文中文,约500字,阅读约需1分钟。发表于: 。大型模型的快速进展在深度学习的各个领域中带来了显著的成绩,但其强大性能而不可信赖的行为成为学术界和工业界面临的挑战。本综述总结了在视觉领域中妨碍大型模型信赖使用的四个相关问题,包括人类误用、易受攻击、内在问题和解释性,通过突出每个主题中的相应挑战、对策和讨论,希望读者能更好地理解该领域,促进大型模型与人类期望的一致性,使可信赖的大型模型成为人类社会的福祉而非灾难。
机器学习模型在自然语言处理和计算机视觉领域取得了革命性进展,但研究人员发现这些模型可能存在社会偏见,导致不公平代表。最近的研究关注预训练视觉语言模型中的社会偏见,本调查提供了关于该领域的见解和减轻偏见的指导。结果和建议有助于开发更公平和无偏的人工智能模型。