香港城市大学的Gao等人研究了视频理解中的幻觉,分为三类:与先前知识冲突、上下文冲突和能力不足。提出了一种有效的微调数据集方法,通过思维链生成视频对和答案。
本研究探讨了自动程序修复(APR)中修复输出与迭代的平衡,提出了一种新方法,限制每个错误生成最多10个补丁。结果表明,利用不到1%的微调数据集,生成的可行补丁数量提升了78%,强调了迭代策略在复杂基准测试中的优势,推动了APR领域的有效发展。
这篇文章介绍了一个新任务:数据集大小恢复,通过模型权重确定训练样本数量。研究人员提出了DSiRe方法,用于恢复微调模型的图像数量,并发现LoRA矩阵的范数和频谱与微调数据集大小密切相关。通过发布新基准LoRA-WiSE,包含25000个权重快照,研究人员证明了最佳分类器可以预测微调图像数量,平均绝对误差为0.36个图像。
研究人员通过微调开源大语言模型,提出了LLM4Causal,能够识别因果任务并解释结果。他们还提出了数据生成过程和两个微调数据集。通过案例研究,展示了LLM4Causal能够提供因果问题的解决方案和易于理解的答案。数值研究显示,它在查询时具有显著的能力。
该文介绍了一种量化感知的低秩自适应算法,用于将大型语言模型权重量化以减少时间和内存使用,并将 LLM 和辅助权重自然地集成到一个量化模型中,而不损失准确性。作者应用该算法于 LLaMA 和 LLaMA2 模型系列,并在不同的微调数据集和下游场景中验证了其有效性。
本研究探讨了大型语言模型在故障模式分类中的有效性,并介绍了促使模型预测故障模式的方法。研究表明,在注释数据上进行微调的GPT-3.5模型在性能上优于当前可用的文本分类模型和开箱即用的GPT-3.5模型。
完成下面两步后,将自动完成登录并继续当前操作。