研究团队提出了一种基于多模态机器学习的新方法,通过合成后信息预测金属有机框架(MOFs)的潜在性能和应用,显著缩短了从合成到应用的周期。该模型在实验噪声和结构缺陷下表现出良好的鲁棒性,能够准确匹配MOFs与应用场景,推动材料科学的智能化发展。
中科大与华为诺亚方舟联合提出了一种推荐大模型性能预测定律,首次定量分析了模型性能与数据规模和质量之间的关系。研究引入近似熵作为数据质量指标,克服了传统扩展定律的局限性,有效预测推荐模型的扩展潜力和最优参数配置。
本研究探讨了传统机器学习中特征转换的三个挑战,提出了FastFT框架,通过性能预测和新颖性评估提高探索效率,实验结果验证了其在复杂任务中的优势。
本研究提出了一种聚类-难度框架,通过对任务难度进行聚类,排除非紧急任务,从而提高大型语言模型的性能预测准确性,平均绝对偏差仅为1.36%。
本研究提出技能扩展法则(SSLaws),旨在解决大语言模型(LLM)基准性能的变异问题。通过利用低维潜在技能,研究能够更准确地预测LLM的性能,减少对每个模型家族训练多个LLM的需求,并为后续任务的扩展行为提供深入见解。
本文探讨了多种数据库查询优化方法,包括基于查询性能预测的自动配置、集成学习模型BitE、端到端学习的Kepler和鲁棒查询优化框架Roq。这些方法在提高查询性能、内存需求预测和适应搜索意图方面表现出显著优势,推动了数据库管理系统的优化进程。
本研究提出了一种新颖的多模态数据驱动方法,解决锂金属电池性能预测中的数据不足问题。通过自动电池数据收集和图形挖掘工具,开发的机器学习模型能够准确预测电池的容量和稳定性,展现出实际应用的潜力和可靠性。
本文探讨了高度可配置系统中因果效应的可识别性与可传移性,提出了新方法Unicorn以优化性能预测。研究表明,one-hot编码效果最佳,而scaled label编码训练速度快但准确性较差。通过HINNPerf模型和DaL算法,提升了预测的准确度和效率。PerfSense框架利用大型语言模型识别性能敏感配置,显著减少了手动工作量。整体来看,深度学习技术在配置性能建模中展现出良好前景。
完成下面两步后,将自动完成登录并继续当前操作。