本文介绍了一种新的代码到代码搜索技术,通过包括静态和动态特征以及在训练过程中利用相似和不同的示例来提高大型语言模型的性能。该方法能够在训练期间编码动态运行时信息,无需执行搜索语料库或搜索查询。研究验证了该方法的有效性,并展示了增强LLMs执行跨语言代码到代码搜索的能力。开源模型的重要性也得到了凸显。
本文介绍了一种新的代码到代码搜索技术,通过包括静态和动态特征以及在训练过程中利用相似和不同的示例来提高大型语言模型的性能。该方法能够在训练期间编码动态运行时信息,无需执行搜索语料库或搜索查询。研究验证了该方法的有效性,并展示了增强LLMs执行跨语言代码到代码搜索的能力。研究表明,即使在训练过程中只有一个正面和负面参考样本,也会产生相当大的性能提高。调整后的模型在性能上始终优于未调整的更大的现代LLMs,凸显了开源模型的重要性。
完成下面两步后,将自动完成登录并继续当前操作。