标签

 models 

相关的文章:

本列表汇集了关于语言模型和生成模型的最新研究与应用,涵盖多模态评估、隐私审计及异常检测等前沿话题,助您深入了解这一领域的最新动态。

Analysis of Gender Bias and Stereotypes in Large Language Models: Based on Online Shopping Data

本研究针对大型语言模型(LLMs)在性别偏见方面的表现进行了调查,特别是其是否可以根据在线购物历史预测个体性别。研究发现,尽管模型可以中等程度上推测性别,其决策仍受到产品类别与性别之间的刻板印象影响,且引导模型避免偏见的指令并未消除这些模式。此研究揭示了语言模型中性别偏见的持久性,强调了需要采取有效的偏见缓解策略。

本研究探讨大型语言模型的性别偏见表现,发现其能够中等程度推测性别,但仍受刻板印象影响,需加强偏见缓解策略。

原文英文,约100词,阅读约需1分钟。发表于:
阅读原文

Efficient Joint Learning of Miniature Language Models for Feature Prediction in Mobile Networks

本研究针对自主网络在数据隐私保护下的高效模型训练问题,提出了一个将微型语言模型与神经网络编码相结合的联合学习框架。实验结果表明,NNCodec能够在透明压缩的基础上将通信开销降低至1%以下,显著提升了网络的协同学习能力。

本研究提出了一种联合学习框架,将微型语言模型与神经网络编码结合,以提高在数据隐私保护下的模型训练效率。实验结果表明,NNCodec能够将通信开销降低至1%以下,显著增强协同学习能力。

原文英文,约100词,阅读约需1分钟。发表于:
阅读原文

Text Over Visuals: ASCII Art Reveals Text Bias in Vision-Language Models

本研究探讨视觉语言模型(VLMs)在处理ASCII艺术时所面临的局限,特别是在文本与视觉模式冲突的情况下。研究发现,VLMs展现出强烈的文本优先偏见,随着语义复杂度增加,视觉识别能力显著下降。这一发现揭示了当前VLMs在多模态信息整合中的基本缺陷,为未来模型的改进提供了重要指导。

本研究分析了视觉语言模型(VLMs)在处理ASCII艺术时的局限性,发现其在文本与视觉模式冲突时存在文本优先偏见,且随着语义复杂度的增加,视觉识别能力下降。这为未来模型的改进提供了参考。

原文英文,约100词,阅读约需1分钟。发表于:
阅读原文

TVM Tutorial: Executing Micro Models with TVMC Micro

​首先在 Relay 中定义一个要在设备上执行的模型,然后从 Relay 模型中创建一个 IRModule,并用随机数填充参数。data,weight,​下面定义描述执行环境的 TVM target,它与其他 microTVM 教程中的 target 定义非常相似。不同之处是用 C Runtime 来生成模型。在物理硬件上运行时,选择一个 target 和一个描述硬件的单板。在本教程的...

Apache TVM是一个支持多种硬件的深度学习编译框架。本文介绍了如何使用C运行时自动调优模型,包括依赖安装、模型定义、任务提取和编译过程,以提升模型在物理硬件上的性能。

原文英文,约800词,阅读约需3分钟。发表于:
阅读原文
发表于:
阅读原文

Evaluating Machine Learning Models for Predicting the Toxicity of Pesticides to Bees

本研究针对农药对蜜蜂毒性的数据稀缺问题,使用ApisTox数据集对多种机器学习方法进行评估,发现当前的先进算法在非医学数据集上表现不佳,反映了模型的局限性。我们提出了在农药领域发展针对性的模型和多样化数据集的必要性,以提高预测的准确性和应用性。

本研究评估了多种机器学习方法在农药对蜜蜂毒性数据稀缺问题上的表现,发现现有算法在非医学数据集上效果不佳,强调了开发针对性模型和多样化数据集的必要性。

原文英文,约100词,阅读约需1分钟。发表于:
阅读原文

Quantifying Consistency Uncertainty to Evaluate Predictive Fairness of AI Models in Skin Lesion Classification

本研究解决了医疗图像基础AI模型在不同患者人口统计特征下的预测不确定性及公平性评估问题。通过应用一致性分析,我们量化了纵向变换器模型在皮肤病变分类中的预测不确定性,并提出了一种新的公正性度量方法,展示了模型在处理性别、年龄和种族差异时的可靠性及公平性。研究结果表明,这一方法有助于提高临床AI的信任度和公平性。

本研究分析了医疗图像AI模型在不同患者特征下的预测不确定性与公平性,量化了模型在皮肤病变分类中的表现,并提出了新的公正性度量,以增强临床AI的信任度与公平性。

原文英文,约100词,阅读约需1分钟。发表于:
阅读原文

If Large Language Models Were Characters, Would They Know Their Own Stories? Evaluating the Lifelong Learning of Large Language Models

本研究解决了当前评估大型语言模型(LLMs)在多轮交互中表现出的角色行为的不足,通过引入LIFESTATE-BENCH基准来评估LLMs的终身学习能力。研究发现非参数方法在状态学习上显著优于参数方法,但所有模型在交互中面临灾难性遗忘的挑战,强调了终身学习发展的必要性。

本研究提出LIFESTATE-BENCH基准,以评估大型语言模型在多轮交互中的角色行为和终身学习能力。结果表明,非参数方法优于参数方法,但模型仍面临灾难性遗忘问题,强调了终身学习的重要性。

原文英文,约100词,阅读约需1分钟。发表于:
阅读原文
发表于:
阅读原文

Outlier Dimensions Facilitate the Emergence of Frequent Vocabulary in Language Models

本文研究语言模型中多出现的离群维度,这些维度在大多数输入中表现出极端激活。研究表明,离群维度是多种现代语言模型的普遍现象,并提出了一种可以在语境不当时抑制该特征的模型方法。通过调整权重,离群维度被发现是各种模型实施词汇预测策略的一种专用机制。

本文研究了语言模型中的离群维度,这些维度在大多数输入中表现出极端激活。研究表明,离群维度在多种现代语言模型中普遍存在,并提出了一种模型方法以抑制这一特征。

原文英文,约100词,阅读约需1分钟。发表于:
阅读原文