本想去谷歌捞一笔就跑,却成了改变AI历史的人|Transformer作者对话Jeff Dean

💡 原文中文,约5200字,阅读约需13分钟。
📝

内容提要

Jeff Dean与Noam Shazeer回顾了谷歌25年的AI发展,讨论了推理算力的未来和模型架构的灵活性。他们认为AI算力相对便宜,未来将采用模块化架构,允许不同团队独立开发。Shazeer提到某些bug可能带来意想不到的积极效果,并分享了在谷歌的快乐时光及对AI潜在风险的担忧。

🎯

关键要点

  • Jeff Dean与Noam Shazeer回顾了谷歌25年的AI发展历程。
  • 他们讨论了推理算力的未来和模型架构的灵活性。
  • AI算力相对便宜,未来将采用模块化架构,允许不同团队独立开发。
  • 某些bug可能带来意想不到的积极效果,研究人员可以从中发现新突破。
  • 推理算力Scaling还有很大空间,与AI对话比读书便宜100倍。
  • 推理时间计算的重要性增加可能影响数据中心规划,需要定制硬件。
  • Gemini 1.5已经开始使用多个大城市的计算资源进行异步训练。
  • 异步训练可以提高整体性能,但可能导致模型参数波动。
  • 记录操作日志可以确保异步训练结果的可重复性。
  • 训练模型时的bug可能会产生正面影响,研究人员通过小规模实验快速验证假设。
  • AI模型正在经历从单一结构向模块化架构的转变,未来将允许不同团队独立开发不同部分。
  • 未来的模型将采用更有机的结构,通过蒸馏技术不断优化各个模块。
  • 谷歌的AI不仅能检索信息,还能理解和生成复杂内容,未来想象空间巨大。
  • Jeff Dean和Noam Shazeer分享了在谷歌的快乐时光和有趣经历。
  • 他们对AI潜在风险表示担忧,尤其是AI可能进入不可控的加速改进循环。
➡️

继续阅读