首页 > 科技视界 > 科技视界 > 又是王冠:27M小模型超越o3-mini!拒绝马斯克的00后果然不同

又是王冠:27M小模型超越o3-mini!拒绝马斯克的00后果然不同

发布时间:2025-08-11 20:31:46来源: 13966578800

27M小模型超越o3-mini-high和DeepSeek-R1!推理还不靠思维链。

开发者是那位拒绝了马斯克、还要挑战Transformer的00后清华校友,Sapient Intelligence的创始人王冠

这个27M小模型就是Sapient最新提出的开源可复现的分层推理模型Hierarchical Reasoning Model(下面简称HRM),模仿大脑的分层处理与多时间尺度运作机制,克服了标准Transfomer的计算局限。

2700万参数,就实现了对现有大模型的精准超车。

不用预训练补课,还不靠思维链打草稿,仅凭1000个训练样本,就把极端数独、30x30迷宫玩得明明白白。

甚至连衡量通用智能的ARC-AGI测试都能碾压一众参数规模更大、上下文更长的Claude 3.7等“大前辈”。

有网友感叹,这就像四两拨千斤AI版……

所以,HRM这个小模型是如何做到的?

核心是仿脑的双层循环模块设计

HRM之所以能有如此出色的表现,源于其五项核心技术的巧妙设计。

首先是分层循环模块与时间尺度分离

HRM受大脑皮层区域分层处理和时间分离机制启发,设计了两个相互配合的循环模块:一个高层模块负责慢节奏的抽象规划,一个低层模块处理快节奏的细节计算,不用明确监督中间过程,一次就能完成推理。

两者在不同时间尺度上协同工作。低阶模块在每个高阶周期内完成多次计算并达到临时稳定状态后,高阶模块才会更新决策,随后低阶模块重置并开启新一轮计算。

这种设计既保证了全局方向的正确性,又提升了局部执行的效率。

比如,在需要大量树搜索和回溯的Sudoku-Extreme Full任务上,增加Transformer的宽度不能提升性能,增加深度才是关键,而标准架构会出现性能饱和,无法从深度增加中获益。

HRM则克服了这一限制,能有效利用计算深度实现近乎完美的准确率。

其次是分层收敛机制

普通的循环神经网络常出现过早收敛的问题——计算几步就陷入稳定状态,后续再复杂的任务也无法推进。

而HRM中,低阶模块在每轮计算中会收敛到基于当前高阶状态的局部结果,但高阶模块更新后,会给低阶模块设定新的目标,使其进入新的收敛周期。

这就像完成项目时,先攻克一个子任务,再根据整体进度调整目标,确保持续推进不偷懒。

第三项是近似梯度技术

传统循环模型训练时,需要存储所有中间状态并反向追溯,类似复盘时要回看每一步操作,既耗内存又低效。

HRM则采用一步梯度近似,只需根据最终状态反推优化方向,如同根据考试结果直接定位薄弱知识点,内存需求恒定且计算高效,更符合生物大脑的学习规律。

第四是深度监督机制

它受大脑中神经振荡调节学习节奏的启发,引入了阶段性测试。

模型在学习过程中被分成多个阶段,每个阶段结束后立即评估并调整参数,且前后阶段的计算互不干扰。

这种方式能及时纠正偏差,就像学生每学一单元就测试巩固,比期末一次性考试的学习效果更扎实。

自适应计算时间让HRM能像人一样灵活分配思考时间

它通过类似评估收益的算法(Q学习),动态决定是否继续计算,在保证准确率的同时避免算力浪费,推理时还能通过增加计算资源进一步提升表现。

比如,简单任务如简单迷宫快速给出答案,复杂任务如高难度数独则延长计算时间。

这些技术的融合,让HRM在多项测试中表现不凡。

下图通过可视化中间步骤,验证了HRM的分层推理机制能够有效拆解复杂任务,通过渐进式计算逼近正确结果,而非依赖黑箱式的一次性输出。

在衡量AI通用推理能力的ARC-AGI挑战中,HRM仅用2700万参数和1000个训练样本,就达到40.3%的准确率,超过了参数规模更大的o3-mini-high(34.5%)和Claude 3.7 8K(21.2%)。

对于需要反复试错的9x9极端数独,现有思维链模型完全无法解决(准确率0%),即便是结构相似的Transformer模型,用同样数据训练也毫无头绪。而HRM几乎能全部做对。

在30x30复杂迷宫的最优路径寻找任务中,HRM表现稳定,而1.75亿参数的大型Transformer模型准确率不足20%。

虽然,HRM被指参数太小、训练范围有限,只针对特定领域表现好,无法泛化到领域外,并不通用。但有人认为小而精的模型或许在某些角度上更智能。

人工智能的飞跃在于创造性。

也有人认为HRM的前景更在于“仿脑”,通过精心设计的高低两个模块避免过早收敛,对过拟合具有极强的抵抗力

甚至有人相当乐观,认为这种新架构是神经网络一个巨大的进步。有可能是超越Transformer的时刻。

拒绝马斯克,挑战Transfomer

论文的第一作者王冠是一位00后,8岁开始学习编程,后保送至清华大学计算机系。

他是GitHub揽星5.1k开源项目OpenChat的独立开发者,独立完成了OpenChat全部版本的模型开发和训练框架搭建。

也正是因为OpenChat这个项目,他和马斯克产生了交集。

但他算得上是一个拒绝了马斯克的男人——此前,王冠多次拒绝了xAI等一线机构创始人的加入邀请。

原因是他认为自己要做的是颠覆Transfomer

2024年,王冠和联合创始人Austin创办了Sapient Intelligence,并成功融资数千万美元。致力于打造“真正具有复杂推理和规划能力的全新大模型架构”。

科技视界更多>>

宝马电动M3将提供多款经典发动机模拟声浪 可切换V8与V10音效 特斯拉美国完全自动驾驶系统交通违法调查案获五周延期回应时间 阿根廷首次迎来大批中国电动车入境 宝马电动版 M3 搭载模拟发动机声浪:其技术源头大揭秘 5000台新车集中交付,奇瑞汽车与一嗨出行达成战略合作 轻舟智航智驾上车量突破百万台,26年还将有50款新车上市! 加拿大“放行”中国电动车,谁是最大受益者? 丰田确认研发全新中置引擎跑车 IDC:2025年Q4 vivo中国市场出货1200万台,中国品牌排名第一 IDC:2025年Q4荣耀手机中国市场排名第5 海外出货量同比增长约55% 极氪法务部就车友活动不实信息发布严正声明:坚决追究造谣者法律责任 鸿蒙智行尚界Z7道路测试视频首曝:溜背造型、车长或超过5米 DeepSeek大量招人,该梁文锋上场了 赵长江:自己天天学习华为,最大的挑战“在于我自身” 可灵AI 12月收入超2000万美元,ARR突破2.4亿美元 新年换机大战打响,天玑9500靠“体验质变”撬动高端市场 华为Pura 80系列到手即可体验鸿蒙 6,智能体验全面升级 2025换新机建议一步到位,都是16+512GB超高性价比,年轻人“最爱” CES 2026即将开幕:机器人、AI眼镜,哪些黑科技将引领未来? 曝豆包AI眼镜即将进入出货阶段 需配豆包APP使用 何小鹏:下个月进入全新一代量产机器人的“ET0”阶段 VI-grade中国零原型(ZPS)实验展示中心在上海正式启动 鸿海科技日:鸿华先进展示搭载TomTom技术的语音AI导航体验 工信部公示人形机器人标准化技术委员会委员名单:王兴兴、彭志辉等人在列 血氧、心率监测数据将更精确 智能手表这一技术取得新突破 田渊栋、卡帕西力荐Nano Banana新玩法:论文变漫画、手写解题以假乱真,谷歌这波赢麻了 阿维塔董事长王辉:明年4款新产品密集推出,是一场硬仗 联想CFO郑孝明:正囤积PC内存,不会向客户转嫁成本 小鹏X9超级增程定价背后的战略逻辑:一场“艰难决定”与规模化破局 部分车辆出现App离线、远程控制功能不可用,极越汽车回应