微软AI公开折磨微软员工,修Bug唯一贡献是改了PR标题,GitHub评论区成吃瓜现场

💡 原文中文,约2400字,阅读约需6分钟。
📝

内容提要

微软的Copilot在修复Bug时表现不佳,导致程序员们嘲笑。员工斯蒂芬与Copilot合作时,AI仅修改了标题,未能解决实际问题。程序员们认为应由人类解决问题,而非浪费时间指导AI。这一事件引发了对AI在编程中角色的思考,质疑其是否会取代人类开发者。

🎯

关键要点

  • 微软的Copilot在修复Bug时表现不佳,程序员们对此感到嘲笑。
  • Copilot在修复过程中仅修改了PR标题,未能解决实际问题。
  • 程序员们认为应由人类解决问题,而非浪费时间指导AI。
  • 事件引发了对AI在编程中角色的思考,质疑其是否会取代人类开发者。
  • 微软员工斯蒂芬和Copilot合作时,遇到多次失败,最终关闭了PR。
  • Copilot的糟糕表现让程序员们开始担忧AI对行业的影响。
  • 微软刚刚裁员3%,引发对Copilot是否用来替代被裁员工的猜测。
  • 斯蒂芬表示使用Copilot不是强制性要求,团队在实验AI工具的局限性。
  • Copilot在自动修Bug方面成功合并代码的案例极少,主要依赖人类程序员的提示。
  • 目前Copilot主要能进行自动补全和总结代码内容,真正修Bug仍需人类程序员。

延伸问答

微软的Copilot在修复Bug时表现如何?

Copilot在修复Bug时表现不佳,最终只修改了PR标题,未能解决实际问题。

程序员们对Copilot的看法是什么?

程序员们认为应由人类解决问题,而不是浪费时间指导AI,甚至开始嘲笑Copilot的表现。

斯蒂芬在使用Copilot时遇到了什么问题?

斯蒂芬在使用Copilot时遇到多次失败,最终关闭了PR,认为是由于配置问题导致AI无法访问所需的依赖项。

Copilot在自动修Bug方面的成功案例有多少?

在整个.NET运行时代码库中,Copilot成功合并代码的案例只有两个,且都是在程序员反复提示后才成功的。

微软最近的裁员与Copilot有什么关系?

微软刚刚裁员3%,引发了对Copilot是否用来替代被裁员工的猜测。

使用Copilot是强制性要求吗?

斯蒂芬表示使用Copilot不是强制性要求,团队在实验AI工具的局限性。

➡️

继续阅读