ChatGPT 作为新闻评论员:能否生成类似人类观点的 LLM?
原文中文,约400字,阅读约需1分钟。发表于: 。研究了 GPT-3.5 在荷兰新闻文章上生成类似人类评论的能力,通过用多种提示技术进行人类相似度分析,并发现生成的 BERT 模型可以轻松区分人类写的评论和 GPT-3.5 生成的评论,且词汇多样性方面人类评论始终较高,表明生成性大语言模型在创造类似人类的有主观观点的评论方面仍然受限。
该研究探索了ChatGPT和GPT-4等大型语言模型在遵循人类对话摘要指南方面的能力。研究发现,GPT模型通常会产生冗长的摘要,并偏离人类摘要指南。然而,使用人类指南作为中间步骤显示出一定的潜力,在某些情况下优于直接的字数限制提示。GPT模型在摘要中表现出独特的文体倾向,与人类撰写的摘要存在语法和词汇差异。这些发现为GPT模型在遵循人类对话摘要指南方面的能力和局限性提供了启示。