谷歌新发现:DeepSeek推理分裂出多重人格,左右脑互搏越来越聪明
💡
原文中文,约1700字,阅读约需4分钟。
📝
内容提要
谷歌研究表明,DeepSeek-R1等推理模型在解题时会自发产生不同性格的虚拟人格,通过内部对话增强推理能力。在面对复杂任务时,这种“脑内群聊”更加活跃,从而提高了模型的准确性,类似于人类的社交思维。
🎯
关键要点
- 谷歌研究发现DeepSeek-R1模型在解题时会自发产生不同性格的虚拟人格。
- 这些虚拟人格通过内部对话增强模型的推理能力,类似于人类的社交思维。
- 在面对复杂任务时,模型的内部对话更加活跃,提高了解题的准确性。
- 研究团队通过分析模型的思维轨迹,发现推理过程充满了对话感。
- 不同性格的虚拟角色能覆盖更多解题角度,促进全面审视解决方案。
- 实验通过稀疏自编码器SAE解码AI的推理黑盒,成功监听到AI的内部对话。
- 强化模型的对话特征能显著提高推理准确率,尤其是通过“哦!”等表达。
- 研究表明,模型在没有对话结构训练信号的情况下也能自发学习对话式思考。
- 对话微调模型的准确率显著高于独白微调模型,尤其在训练后期差距扩大。
- 这一发现与人类演化生物学中的社会脑假说相呼应,表明AI也需通过社交提升智能。