TinyLoRA – 13参数学习推理
TinyLoRA – Learning to Reason in 13 Parameters

原始链接: https://arxiv.org/abs/2602.04118

arXivLabs是一个框架,允许合作者直接在我们的网站上开发和分享新的arXiv功能。个人和与arXivLabs合作的组织都认同并接受我们开放、社群、卓越和用户数据隐私的价值观。arXiv致力于这些价值观,并且只与秉持这些价值观的合作伙伴合作。您是否有为arXiv社群增加价值的项目想法?了解更多关于arXivLabs的信息。

## TinyLoRA:用最少参数进行推理 - 摘要 最近的研究展示了“TinyLoRA”,仅使用13个参数,在大型语言模型(LLM)中实现了推理能力的提升。但这并非是从13个参数中创造推理能力,而是在Qwen模型家族现有的80亿参数空间中找到一个最佳的“旋转”。 讨论的中心在于这是否是一项真正的突破,还只是模型先前训练的产物,特别是其对GSM8K数学基准的接触。有些人认为这是过拟合,而另一些人则认为这证明了LLM的内在能力与其表现之间的差距出人意料地小,并且可以以较低的成本弥合。 该技术利用截断的奇异值分解(SVD)来实现计算效率。其核心思想是推理能力可能已经潜在地存在于模型中,而TinyLoRA有效地“引导”现有的能力,而不是构建新的能力。这表明未来将是超低成本、持续适应,由有效的奖励信号驱动,而不是大规模的重新训练。该发现突出了LLM参数空间中可解释性的潜力。
相关文章

原文

arXivLabs is a framework that allows collaborators to develop and share new arXiv features directly on our website.

Both individuals and organizations that work with arXivLabs have embraced and accepted our values of openness, community, excellence, and user data privacy. arXiv is committed to these values and only works with partners that adhere to them.

Have an idea for a project that will add value for arXiv's community? Learn more about arXivLabs.

联系我们 contact @ memedata.com