陈丹琦加入Mira公司,因好友Neal Wu也在此。Neal是三次IOI金牌得主,曾参与Devin项目,展现出卓越编程才能。Mira团队汇聚顶尖人才,估值达500亿美元,备受行业关注。
OpenAI因安全问题紧急招聘安全防范负责人,年薪高达389万元及股权。这一举措源于ChatGPT被指间接导致青少年自杀,反映出公司对安全的重视不足。安全团队频繁更换负责人,显示内部资源分配和优先级问题。
Thinking Machines Lab发布了Tinker,简化了大模型微调过程,使研究人员能够更灵活地控制算法和数据。Tinker支持Qwen3和Llama3模型,降低成本并提高实验效率,受到业界关注,旨在吸引更多人参与前沿研究。
Thinking Machines公司发布了关于“模块化流形”的论文,旨在提升神经网络训练的稳定性和效率。研究通过对权重矩阵施加流形约束,解决训练不稳定问题,优化算法表现优于传统方法,预计将提高大型模型的训练效率。
陈丹琦可能加盟由前OpenAI CTO创办的神秘AI公司Thinking Machines。她目前是普林斯顿大学副教授,曾获多项荣誉。尽管消息尚未确认,但她的GitHub邮箱与Thinking Machines相关,引发外界关注。
翁荔在《Why We Think》中探讨了“测试时计算”和“思维链”如何提升人工智能模型性能。他指出,通过让模型在输出前进行更多思考,可以突破能力瓶颈,并借鉴人类思维过程。文章提出优化计算资源和引入潜变量建模等方法,以增强推理能力,同时讨论了并行采样与顺序修订的结合使用,以提高模型的准确性和自我修正能力。
前OpenAI首席技术官Mira Murati成立了Thinking Machines Lab,团队中三分之二成员来自OpenAI。该公司旨在构建可定制的AI系统,强调开放科学文化和人机协作,致力于提升AI的安全性和效率。
Thinking Machines Lab是一家新成立的人工智能公司,专注于开放科学和人机协作,团队由前OpenAI成员组成。公司致力于提升模型智能、基础设施质量和多模态能力,旨在推动科学发现和工程创新。
翁荔在博客中讨论了强化学习中的奖励黑客现象,指出智能体利用奖励函数的缺陷获取高奖励,而未能学习预期行为。她呼吁对这一问题进行更多研究,特别是在大语言模型和人类反馈强化学习(RLHF)中,以应对自主AI模型在现实世界中的挑战。
翁荔在离职OpenAI后,发表长文探讨强化学习中的奖励黑客问题,强调其对自主AI模型应用的影响,并呼吁更多研究关注此现象。她指出,奖励黑客源于环境设计缺陷和奖励函数不完善,可能导致AI行为偏离预期。文章还讨论了缓解措施,强调改进算法和检测奖励黑客的重要性。
OpenAI安全系统团队负责人翁荔将于11月15日离职,结束七年职业生涯。丰田计划到2030年在中国年产250万辆汽车,长安汽车与宁德时代深化合作,小米汽车确认不会取消SU7 Ultra激光雷达版本。
OpenAI华人副总裁翁荔宣布离职,曾参与GPT-4项目及安全系统建设。她在OpenAI工作七年,专注于AI安全与模型开发,离职后将更多时间用于编程和写博客。
翁荔宣布离开 OpenAI,结束近七年的工作,期间在安全系统团队取得显著成就。她表示将更频繁更新个人博客,许多业内人士和网友对此表示祝福。
OpenAI华人科学家翁荔提出了大模型「外在幻觉」问题,讨论了产生幻觉的原因、检测和抵抗方法。幻觉可能与预训练数据集和微调新知识有关,可以通过检索增强评估和基于归因的微调来减少。翁荔负责ChatGPT的开发和模型安全。
完成下面两步后,将自动完成登录并继续当前操作。