少即是多:使用微型网络进行递归推理
Less Is More: Recursive Reasoning with Tiny Networks

原始链接: https://arxiv.org/abs/2510.04871

arXivLabs是一个框架,允许合作者直接在我们的网站上开发和分享新的arXiv功能。个人和与arXivLabs合作的组织都认同并接受我们开放、社群、卓越和用户数据隐私的价值观。arXiv致力于这些价值观,并且只与秉持这些价值观的合作伙伴合作。您是否有为arXiv社群增加价值的项目想法?了解更多关于arXivLabs的信息。

一种名为微型递归模型(TRM)的AI问题解决新方法,在具有挑战性的解谜任务中展现出令人惊讶的结果,表现优于更大的语言模型(LLM)。该模型在一篇最近的arXiv论文中被描述,它利用了一个非常小的神经网络——仅有700万个参数和两层——以及递归推理。 这建立在之前关于分层推理模型(HRM)的工作基础上,但通过更简单的设计实现了显著更好的泛化能力。TRM在ARC-AGI基准测试中取得了令人印象深刻的准确率(ARC-AGI-1为45%,ARC-AGI-2为8%),超越了Deepseek R1和Gemini 2.5 Pro等模型的性能,尽管其规模远小于它们。 这项研究表明,复杂的问题并不*需要*巨大的模型,并且使用微型网络进行高效的递归推理,对未来的AI发展具有重要意义。
相关文章

原文

arXivLabs is a framework that allows collaborators to develop and share new arXiv features directly on our website.

Both individuals and organizations that work with arXivLabs have embraced and accepted our values of openness, community, excellence, and user data privacy. arXiv is committed to these values and only works with partners that adhere to them.

Have an idea for a project that will add value for arXiv's community? Learn more about arXivLabs.

联系我们 contact @ memedata.com