新加坡AI初创公司Sapient Intelligence开发的新型AI架构——层次推理模型(HRM),在复杂推理任务上可媲美甚至大幅超越大型语言模型(LLMs),同时具备更小的模型规模和更高的数据效率。

该架构灵感源自人脑如何处理慢速规划和快速计算的机制,仅需当今LLMs所需数据量和内存的一小部分即可取得优异效果。这种高效性对数据稀缺、计算资源有限的企业AI应用具有重要意义。

思维链推理的局限性

当前LLMs主要依赖思维链(CoT)提示技术,将问题分解为基于文本的中间步骤。研究人员指出:"CoT作为推理工具只是权宜之计,它依赖脆弱的人为分解,任何单步错误或步骤错序都会导致整个推理过程失败。"

这种显式语言生成方式将模型推理束缚在词元层面,通常需要海量训练数据且响应缓慢,也忽视了无需语言显式表达的"潜在推理"机制。

受大脑启发的分层方法

研究团队转向"潜在推理"机制,使模型能在内部抽象表征层面进行推理。HRM采用两个耦合的循环模块:负责慢速抽象规划的H模块,与执行快速详细计算的L模块。这种"分层收敛"机制可防止模型过早收敛,实现深度推理。

HRM实际表现

在ARC-AGI抽象推理测试中,仅2700万参数的HRM以40.3%准确率超越更大规模的CoT模型。在"极限数独"和"复杂迷宫"测试中,HRM在仅1000个训练样本下达到接近完美的准确率,而先进CoT模型则完全失败。

企业应用价值

该架构的并行处理能力可带来100倍的任务完成速度提升,显著降低推理延迟。训练专业级数独模型仅需约2GPU小时,ARC-AGI基准测试也仅需50-200GPU小时,远少于基础大模型所需资源。

公司正在将HRM发展为通用推理模块,初期在医疗、气候预测和机器人领域已取得成效。下一代模型将具备自校正能力,显著区别于当前基于文本的系统。 更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)