微软AI公开折磨微软员工,修Bug唯一贡献是改了PR标题,GitHub评论区成吃瓜现场
💡
原文中文,约2400字,阅读约需6分钟。
📝
内容提要
微软的Copilot在修复Bug时表现不佳,导致程序员们嘲笑。员工斯蒂芬与Copilot合作时,AI仅修改了标题,未能解决实际问题。程序员们认为应由人类解决问题,而非浪费时间指导AI。这一事件引发了对AI在编程中角色的思考,质疑其是否会取代人类开发者。
🎯
关键要点
- 微软的Copilot在修复Bug时表现不佳,程序员们对此感到嘲笑。
- Copilot在修复过程中仅修改了PR标题,未能解决实际问题。
- 程序员们认为应由人类解决问题,而非浪费时间指导AI。
- 事件引发了对AI在编程中角色的思考,质疑其是否会取代人类开发者。
- 微软员工斯蒂芬和Copilot合作时,遇到多次失败,最终关闭了PR。
- Copilot的糟糕表现让程序员们开始担忧AI对行业的影响。
- 微软刚刚裁员3%,引发对Copilot是否用来替代被裁员工的猜测。
- 斯蒂芬表示使用Copilot不是强制性要求,团队在实验AI工具的局限性。
- Copilot在自动修Bug方面成功合并代码的案例极少,主要依赖人类程序员的提示。
- 目前Copilot主要能进行自动补全和总结代码内容,真正修Bug仍需人类程序员。
❓
延伸问答
微软的Copilot在修复Bug时表现如何?
Copilot在修复Bug时表现不佳,最终只修改了PR标题,未能解决实际问题。
程序员们对Copilot的看法是什么?
程序员们认为应由人类解决问题,而不是浪费时间指导AI,甚至开始嘲笑Copilot的表现。
斯蒂芬在使用Copilot时遇到了什么问题?
斯蒂芬在使用Copilot时遇到多次失败,最终关闭了PR,认为是由于配置问题导致AI无法访问所需的依赖项。
Copilot在自动修Bug方面的成功案例有多少?
在整个.NET运行时代码库中,Copilot成功合并代码的案例只有两个,且都是在程序员反复提示后才成功的。
微软最近的裁员与Copilot有什么关系?
微软刚刚裁员3%,引发了对Copilot是否用来替代被裁员工的猜测。
使用Copilot是强制性要求吗?
斯蒂芬表示使用Copilot不是强制性要求,团队在实验AI工具的局限性。
➡️