不要转换代码,而是编写转换:朝着精准代码重写的方向使用大型语言模型
发表于: 。本研究解决了大型语言模型(LLMs)在快速和正确代码重写中的不足之处。提出了一种通过小数量的输入/输出代码示例生成代码转换的思维链方法,该方法结合了执行和反馈。研究发现,LLM生成的转换在七个Python代码转换中具有完美的精确性,并在其他情况下比直接重写更具准确性,期待能推动后续研究提升LLM代码重写的精确度。
本研究解决了大型语言模型(LLMs)在快速和正确代码重写中的不足之处。提出了一种通过小数量的输入/输出代码示例生成代码转换的思维链方法,该方法结合了执行和反馈。研究发现,LLM生成的转换在七个Python代码转换中具有完美的精确性,并在其他情况下比直接重写更具准确性,期待能推动后续研究提升LLM代码重写的精确度。