本研究提出了一种新的对齐方法——创造性偏好优化(CrPO),旨在提升大型语言模型(LLMs)生成创造性内容的能力。研究结果表明,应用CrPO后,模型在新颖性、多样性和惊喜性方面优于现有基准。
该研究提出了一种基于双向生成对抗网络的探索算法“探险者”,旨在提高深度强化学习的样本效率并避免局部最优。该方法通过估计状态的新颖性,在复杂任务中表现优异,并在多个基准任务上取得了竞争力的结果。
研究者开发的Lluminate算法结合了进化计算与大型语言模型,显著提升了创意设计的多样性和新颖性。该算法通过注入创意策略,能够生成独特的时钟和建筑风格,强调了形式化创造性思维的重要性。实验结果显示,修改现有作品比从头创作更具多样性,且跨域策略之间无显著相关性。
本研究提出了一种新方法——通过时间距离实现情节新颖性(ETD),有效应对稀疏奖励环境中的探索挑战,实验结果表明其优于现有方法。
本研究提出了一种新方法,解决专利批准中的新颖性和非显而易见性问题。通过分析105K例修订数据,利用大型语言模型预测发明主张的变化,发现引用文献与草拟句子之间的文本蕴含能够有效预测修订结果。
本研究分析了大型语言模型与人类作家在短篇故事创作中的创造性差距。结果显示,尽管模型生成的故事风格复杂,但在新颖性、惊讶度和多样性方面仍不及人类作家。
近年来,人造材料结构劣化问题严重,无损检测需求增加。激光超声可视化测试(LUVT)能够可视化超声传播,提高检测效率。本研究提出使用扩散模型的异常检测方法,仅需在负样本上进行训练,提高缺陷检测效果。
该文章介绍了一种基于模型的强化学习算法,适用于大规模或无限状态空间。该算法通过探索和利用阶段来维护一组与当前体验一致的动态模型,并通过查找引起高度分歧的策略来进行探索。该算法在实现和最优规划的假设下能够得到完美的政策,并使用神经网络进行实用近似,证明了其在实践中的性能和样本效率。
本研究提出了一种基于重构的方法,用于检测计算机视觉中的分类外样本。该方法在MNIST和Caltech-256数据集上表现出更好的性能。
通过使用强化学习模型,借助大型语言模型的语义能力和用户反馈,提出了一种在大规模搜索引擎中提高推荐结果新颖性的算法。
我们引入了IgDiff,一种基于蛋白质骨架扩散框架的抗体可变域扩散模型。IgDiff生成的结构具有高度可设计性和新颖性,与参考抗体分布一致。实验证实了这些设计的抗体,并发现全部高产。与其他模型相比,IgDiff在抗体设计任务中展示了改进的特性和可设计性。
通过形式化学习理论,我们提出了创造力相关概念的形式化,包括对新颖性和转换性创造力进行形式定义,并探索学习在创造性行为中的作用。通过提供形式化定义,我们证明当使用启发性集合而不是体验序列时,新颖性对于发生转换性创造力是必需的。
通过实证分析发现,温度参数对大型语言模型(LLMs)的创造力影响微弱,与新颖性弱相关、与不连贯性中度相关,但与连贯性和典型性无关。研究者提出了实现更可控的LLM创造力的想法。
本研究结合因果知识图谱和大型语言模型,提出了一种计算假设生成方法。通过分析心理学文章,生成了130个关注“幸福”的心理学假设。结果显示,结合大型语言模型和因果图的方法在新颖性方面优于仅使用大型语言模型生成的假设。这项工作为心理学研究中基于数据的假设生成提供了新的范式。
本文提出了一种新的评估单次生成模型的框架,通过对样本可识别性和样本多样性进行评估,分析了代表性单次生成模型在Omniglot手写数据集上的表现。研究发现GAN型和VAE型模型的多样性和可识别性互补,空间注意和上下文整合对多样性和可识别性有线性贡献,解缠效应能最大化可识别性。评估结果可推动人工智能技术发展。
研究者结合因果知识图谱和大型语言模型,提出了一种计算假设生成方法。通过分析心理学文章,生成了130个关注“幸福”的心理学假设。结果显示,该方法在新颖性方面明显超过仅使用大型语言模型生成的假设,为心理学研究中基于数据的假设生成提供了新的丰富范式。
该研究提出了一种通过自监督学习获取特征的方法,利用聚类距离差异度量标识多样的数据,并构建自适应子集来平衡多样和不确定的数据。该方法在广泛认可的基准测试上提高了1.20%的性能,并在不同标注预算下验证了其有效性。
本文探讨了美国文化霸权对世界的影响,指出美国文化虽占主导地位,但缺乏新颖性,难以促进国外新发展。原因在于最优秀的科学家、学者和企业家都涌向美国,美国流行文化也充斥着其他国家的音乐和电影,加强了美国的文化封闭性。作者认为,这可能是美国霸权最大的代价。
研究提出了一种名为Stylist的新方法,通过去除环境偏差特征来改进新颖性检测算法,从而检测与任务相关的语义变化并对抗风格分布的变化。研究证明这种特征选择机制在多个数据集上改进了新颖性检测算法。
该研究提出了一种新的概率分布检测方法,利用系统调用序列。通过引入新的开源数据集,解决了大规模神经网络训练数据的限制。该方法在大多数新颖之处实现了超过95%的F值和AuROC,且数据和任务无关。
完成下面两步后,将自动完成登录并继续当前操作。