斯坦福 × 英伟达 TTT-Discover:AI 推理新范式,现场进化刷新多领域 SOTA

2026-01-26 20:51
62
1月25日,斯坦福大学与英伟达联合发布论文《Learning to Discover at Test Time》,提出TTT-Discover(测试时训练)新范式,打破“AI模型训练完即参数冻结”的传统铁律。该范式让AI在推理阶段针对特定难题“现场进化”——通过强化学习实时修改参数,不惜耗费数百美元算力追求“单次极致突破”,从重写数学猜想到碾压人类代码速度,重新定义机器发现的边界。

一、核心颠覆:从“考场回忆”到“现场长脑子”
传统AI(包括OpenAI o1等“思考型”模型)的推理逻辑类似“学霸考前背书”:预训练阶段固化知识(参数冻结),推理时仅靠“回忆+草稿(如CoT思维链)”答题,核心能力无法突破预训练上限。
TTT-Discover则采用三大激进策略,实现“推理时动态进化”:
现场进化:针对当前特定问题,用强化学习直接修改模型参数,而非依赖预训练权重;
赌徒心态:修改损失函数,放弃“稳健通用”,鼓励探索高风险、高回报的极端解(如复杂函数构造、激进代码优化);
用完即弃:进化后的“专项模型”仅用于解决当前问题,无需保留通用性(哪怕解决完数论问题后,模型丧失基础对话能力也无关紧要)。
其核心理念是:科学发现无需“全能”,只要能突破一个关键问题,哪怕代价是“偏科”,对人类而言就是胜利。
二、实战战绩:四大领域刷新SOTA,碾压人类顶尖水平
TTT-Discover选择的测试场景均为“人类与AI的必争之地”,结果全面超越人类与过往AI,部分领域实现“降维打击”:
1.数学:重写数论难题边界
针对困扰数学家数十年的Erdős最小重叠问题(数论核心难题):
人类最佳成绩:上界0.380927(51段函数构造);
此前AI(AlphaEvolve):上界0.380924(95段函数);
TTT-Discover:上界0.380876(600段非对称函数构造),小数点后四位突破,相当于从“积木搭房”升级为“3D打印复杂建筑”,每一步都是理论数学的历史突破。
2.GPU编程:速度碾压人类顶级工程师
在GPU内核优化(TriMul)比赛(考验硬件理解与代码效率的硬核领域):
人类第一名代码(H100显卡):耗时1371微秒;
TTT-Discover代码(H100显卡):耗时1161微秒,A100显卡上更是比人类快50%(2198微秒vs人类4531微秒);
关键突破:发现人类未想到的“激进算子融合+精度压缩”技巧,未来可让游戏、大模型运行速度凭空提升一倍。
3.算法竞赛:超越人类金牌选手
在AtCoder启发式竞赛(ahc039/ahc058)(考验逻辑与问题转化能力):
人类金牌选手最佳成绩(ahc039):566,997分;
TTT-Discover:567,062分,不仅击败过往最强AI(ShinkaEvolve:558,026分),还成为赛事“虚拟第一名”,证明动态进化模型能突破人类经验局限。
4.生物学:提升单细胞去噪精度
在单细胞数据分析去噪任务中,TTT-Discover将去噪精度从人类/过往AI的0.64提升至0.71,为生物研究提供更可靠的数据基础。
三、关键局限:不是“万能神药”,而是“科研手术刀”
尽管战绩辉煌,TTT-Discover仍有三大核心局限,决定其定位为“专用科研工具”而非通用AI:
成本高昂:解决单个问题需耗费约500美元(≈3500元人民币)算力,仅适用于光刻机设计、新药研发等“高价值攻坚场景”,绝不适用于日常小问题;
彻底偏科:为单点突破修改全部相关参数,解决完特定问题后,模型可能丧失基础能力(如解完数学题后不会对话),是“一次性特种兵”;
依赖明确反馈:仅能解决“有连续奖励信号”的问题(如代码速度“越快越好”、数学边界“越小越好”),无法处理“写诗”“证明黎曼猜想”(仅有对/错两态)这类无连续反馈的任务。
四、研究脉络:TTT范式的7年进化之路
该成果并非横空出世,而是斯坦福博士后Yu Sun(同时为英伟达研究员)7年死磕“测试时训练(TTT)”的终极成果,形成清晰的“三部曲”进化路线:
1.0时代(2020,视觉修复):代表作《Test-Time Training with Self-Supervision》(ICML 2020),模型遇到模糊/旋转图片时“临时微调”适应,定位是“修补匠”,只为提升健壮性;
2.0时代(2025,架构革命):代表作《Learning to(Learn at Test Time)》(ICML 2025),提出用“TTT过程替代Transformer的Attention机制”(TTT-LM),挑战大模型底层架构;
3.0时代(2026,智能进化):即TTT-Discover,从“适应坏数据”转向“科研攻坚”,让AI在推理时“进化出超越预训练的智力”,推动Yu Sun的核心愿景——将深度学习从“静态模型”转向“动态过程”。
TTT-Discover的意义不仅是技术突破,更是对“智能”的哲学重构:它证明AI的价值未必是“全能百科全书”,也可以是“为照亮一个未知瞬间而燃尽自我的流星”——为单点突破放弃通用性,却能推动人类前沿领域的进步。
未来,它将成为科研的“核心手术刀”:在数学理论、硬件优化、生物研究等“硬骨头”领域,形成“人类定义问题+AI动态解题+人类验证结果”的新范式,而其局限也明确了“通用AI”与“专用攻坚工具”的边界,避免技术夸大。
0
好文章,需要你的鼓励