本文讨论了大型语言模型(LLMs)的应用及其局限性。LLMs在自动客户支持、文档摘要、多语言沟通、语义搜索和创意文本生成等方面表现优异,但在需要高精度和实时性能的预测任务中,传统机器学习方法仍更为有效。
本文介绍了选择合适机器学习算法的方法,依据任务类型将算法分为预测任务(如回归、分类、时间序列预测)和非预测任务(如聚类、降维、新数据生成)。选择算法时需考虑数据的性质和复杂性,包括线性关系、多重共线性和分类可分性等因素。神经网络和深度学习在处理复杂数据时表现优异。
本研究探讨了大型语言模型对提示表述变化的敏感性,提出了新任务“提示敏感性预测”,并设计了数据集PromptSET。研究表明,现有方法难以有效应对该预测,强调了准确表述信息以获得精准回复的重要性。
本研究提出了一种统一基于骨架的密集表示学习框架(USDRL),有效解决了负样本生成困难和局部细致表示不足的问题。通过多粒度特征去相关,显著提升了密集预测任务的性能,实验结果表明该方法优于现有技术。
本研究探讨大型语言模型(LLMs)在关系数据库预测任务中的应用,证明其在复杂关系和异构数据上表现优异,为机器学习设立新基准,激励后续研究。
本研究提出DDL-CXR方法,解决临床数据(如电子健康记录和胸部X光图像)在时间上的非同步性问题。该方法通过生成个性化胸部X光图,显著提升了临床预测任务的准确性和实用性。
本文探讨了大型语言模型(LLMs)在预测任务中的应用与局限性。研究发现,LLMs在某些情况下能提高预测准确性,但在真实世界的预测中,尤其是在促销期间,表现不佳。与人类专家的预测比较显示,高级统计模型并未显著提升预测性能。研究还提出了针对非专业用户的预测软件设计建议,以增强其理解和信任。
本文研究了开发者优先级的问题,探索了如何建模开发者在缺陷库中的优先级以及如何利用此优先级提高缺陷库中的三个预测任务的性能。实证研究表明开发者优先级可以帮助软件任务,特别是缺陷跟踪任务。
我们提供了一个公开基准库RelBench,用于解决关系型数据库中使用图神经网络进行预测任务的问题。RelBench提供了多个领域和规模的数据库和任务,为未来的研究提供基础设施。通过对比评估发现,深度学习在解决关系型数据库中的预测任务方面具有强大能力,并为RelBench提供了新的研究机会。
该文章介绍了一种通过分析连接语言来评估认知功能的方法,提出了一个新的基准数据集和预测任务。数据集包含普通话和英语演讲者的言语样本和临床信息。通过倾向评分分析匹配数据,确保模型训练的平衡和代表性。预测任务包括轻度认知损害的诊断和认知测试分数的预测。提供基准预测模型来说明这一框架。在诊断中,平均未加权回忆率为59.2%,评分预测的均方根误差为2.89。
学习与拒绝是研究人类与人工智能在预测任务中相互作用的典型模型。研究发现,通过扩大预测者的函数类,可以缓解无拒绝学习策略的次最优性。研究结果支持先使用所有数据来学习预测者,然后根据拒绝者的预测损失进行标定的两步学习过程。
本文提出了一种新颖的基于图的多-ODE神经网络(GRAM-ODE)架构,通过捕捉复杂的局部和全局动态时空依赖关系的不同视图来学习更好的表示,并在其中间层添加了共享权重和发散性约束等技术以进一步改善面向预测任务的通信。实验结果表明,GRAM-ODE相比最先进的基线方法具有明显的优势,并且不同组件对整体性能有贡献。
本文提出了一种新颖的基于图的多-ODE神经网络(GRAM-ODE)架构,通过捕捉复杂的局部和全局动态时空依赖关系的不同视图来学习更好的表示,并在其中间层添加了共享权重和发散性约束等技术以进一步改善面向预测任务的通信。实验结果表明,GRAM-ODE相比最先进的基线方法具有明显的优越性,并且不同组件对整体性能有贡献。
本文介绍了Gem5模拟器及其在硬件模拟领域的应用。使用特定数据集和CodeBERT进行预测任务,回归模型平均绝对误差为0.546,分类模型准确率为0.696。数据集可在https URL获取。
介绍了一种名为SAC的新型框架,利用邻居的接近性和高阶信息,提出了邻居信息瓶颈来学习目标节点到邻居的预测任务的最小充分表示,并消除邻居的冗余。实验结果表明,SAC方法在公共推荐数据集和Douyin-Friend-Recommendation数据集上优于现有的最先进方法。
本文介绍了一种通过自然对话来协助用户进行预测任务的智能代理。通过引入预测话语的概念,并采用实体抽取和问答技术解决槽填充问题,实验证明了该方法的可行性和有效性。
完成下面两步后,将自动完成登录并继续当前操作。