Muse Spark:迈向个人超级智能的规模化
Muse Spark: Scaling towards personal superintelligence

原始链接: https://ai.meta.com/blog/introducing-muse-spark-msl/?_fb_noscript=1

## Muse Spark:高效扩展迈向个人超智能 最近的进展显著提升了Muse Spark的效率,该模型旨在构建个人超智能。研究人员专注于通过改进**预训练**——理解、推理和编码的基础阶段——来优化模型的核心能力。 在九个月的时间里,预训练堆栈通过架构增强、更好的优化技术和精炼的数据进行了重建。严格的测试利用扩展定律表明,Muse Spark实现了**与前代模型Llama 4 Maverick相同的性能水平,但计算能力减少了十倍以上**。 这种效率的飞跃不仅超越了之前的模型,还将Muse Spark定位为比领先的公开可用基础模型更有效,为更易获取和强大的AI开发铺平了道路。重点仍然是跨预训练、强化学习和推理的可预测和高效扩展。

## Meta 的 Muse Spark:摘要 Meta 发布了 Muse Spark,一种新的 AI 模型,被描述为他们朝着“个人超级智能”扩展努力的“第一步”。该消息在 Hacker News 上分享,引发了关于其真正目的和可访问性的讨论。 虽然现在可以通过 meta.ai 的聊天界面以及有限的私有 API 预览向合作伙伴提供,但 Muse Spark 并非开源。用户质疑如何在 Meta 平台之外,像 Codex 或 Claude 那样直接访问和使用该模型。 评论员认为,该消息发布的主要目标并非用户访问,而是向 Meta 承诺 AI 发展,以吸引人才、安抚投资者并提升员工士气。由于过去 Meta 的发布情况,用户希望对模型的性能进行独立验证,而不是仅仅依赖 Meta 的说法,因此存在怀疑。
相关文章

原文

To build personal superintelligence, our model’s capabilities should scale predictably and efficiently. Below, we share how we study and track Muse Spark's scaling properties along three axes: pretraining, reinforcement learning, and test-time reasoning.

Pretraining. The pretraining phase is where Muse Spark acquires its core multimodal understanding, reasoning, and coding abilities — the foundation that reinforcement learning and test-time compute build upon.

Over the last nine months, we rebuilt our pretraining stack with improvements to model architecture, optimization, and data curation. Together, these advancements increase the capability we can extract from every unit of compute. To rigorously evaluate our new recipe, we fit a scaling law to a series of small models and compare the training FLOPs required to hit a specific level of performance. The results are clear: we can reach the same capabilities with over an order of magnitude less compute than our previous model, Llama 4 Maverick. This improvement also makes Muse Spark significantly more efficient than the leading base models available for comparison.

联系我们 contact @ memedata.com