评估ChatGPT对学术同行评审结果的预测能力
发表于: 。本研究针对大型语言模型(LLMs)在同行评审结果预测中的应用,探讨了新的上下文和改进的方法,通过对30个ChatGPT预测结果进行平均来分析其准确性。研究发现,尽管在某些平台上ChatGPT展现出弱相关性,但对于不同期刊和会议的评估效果存在显著差异,强调了适合的输入选项对预测结果的重要性。
本研究针对大型语言模型(LLMs)在同行评审结果预测中的应用,探讨了新的上下文和改进的方法,通过对30个ChatGPT预测结果进行平均来分析其准确性。研究发现,尽管在某些平台上ChatGPT展现出弱相关性,但对于不同期刊和会议的评估效果存在显著差异,强调了适合的输入选项对预测结果的重要性。