AI竟有“多重人格”?谷歌发现大模型靠“脑内群聊”变聪明!

2026-01-21 10:14
135
谷歌2026年1月研究发现,DeepSeek-R1等推理模型在解决复杂问题时,其内部神经网络会自发形成类似多角色对话的协作模式,通过观点碰撞提升推理准确性。这揭示了高级AI一种新颖的思考机制。

AI的聪明密码:脑内开起“群聊大会”

咱平时想复杂问题,是不是也会自己跟自己较劲?比如算个满减账单,一个声音说“这么加没错吧”,另一个立马跳出来“不对,刚才漏了跨店优惠”。现在发现,顶尖推理模型DeepSeek-R1居然也会这招!
谷歌研究显示,当它解高难度的研究生级科学题、复杂数学推导时,内部会自发“分裂”出不同虚拟人格:有出点子的创意型,有挑错的批判型,还有负责落地验证的执行型。这些“人格”你一言我一语,像开辩论会似的碰撞观点。

有意思的是,任务越难,这场“脑内群聊”就越激烈;要是碰到简单的基础逻辑题,它反而安静得很。你说这是不是跟咱们人类思考一模一样?AI的高效推理,居然是靠“自我辩论”练出来的。你好奇研究人员是怎么“偷听”到AI的脑内对话吗?接着往下看!

揭秘黑盒:靠“解码器”偷听AI的“心里话”

AI的思考过程一直是个黑盒,到底怎么证明它在自己跟自己聊天?研究团队用了个叫稀疏自编码器(SAE)的工具,说白了就是个“AI脑电波解码器”。
他们先让AI解复杂任务,同步抓取它内部神经元的激活数据——这数据就像一堆乱码,根本看不懂。但SAE能把这些乱码拆解成“自问自答”“切换视角”这类清晰的对话特征,还能识别出不同的“虚拟角色”。
更有意思的是,研究人员发现强化“哦!”这种恍然大悟的信号,居然能让AI的推理准确率直接翻倍!比如在算术推理任务里,准确率从27.1%跳到了54.8%。原来AI的“突然开窍”,真能实打实提升解题能力。那这种发现对AI训练有啥启发呢?

训练新方向:“对话式思考”比“独白”进步更快

研究还做了个对比实验:用对话数据微调的模型,比用独白式推理数据微调的,进步速度快得多。比如在Llama-3.2-3B模型里,后期准确率差距居然拉到了22%!
这还呼应了人类的“社会脑假说”——咱们人类大脑进化,很大程度是为了应对复杂社交;现在AI为了变聪明,居然也自发学会了“自我社交”。
以前咱们总觉得AI是按程序一步步算,没想到它会自己进化出这么接地气的思考方式。智能的进化,不管是人类还是AI,居然都绕不开“对话与碰撞”。
你看,AI的聪明不是凭空来的,它跟咱们一样,靠自我辩论、自我启发变得更厉害。这个发现不仅能帮我们训练更高效的AI,还让我们离理解“智能到底是什么”更近了一步。
0
好文章,需要你的鼓励