商城首页欢迎来到中国正版软件门户

您的位置:首页 >Meta发布Muse Spark:华人天团废墟重建,最恨Llama的果然是小扎自己

Meta发布Muse Spark:华人天团废墟重建,最恨Llama的果然是小扎自己

  发布于2026-04-24 阅读(0)

扫一扫,手机访问

Meta AI“推倒重来”:华人天团交出首份答卷Muse Spark,但更大的战争才刚刚开始


作者 | 猫猫头
邮箱 | cathy@pingwest.com

在Llama 4的“崩盘”成为旧闻之后,Meta的AI路线图经历了一场彻底的自我革命。创始人扎克伯格亲手拆解了过去的团队与技术架构,转而押注一条全新的道路。九个月后,在一片关注与质疑声中,由他重金组建、以华人科学家为核心的研发天团,交出了第一个作品——Muse Spark。这不仅仅是一个新模型,更是一次宣告:Meta打算用一套从零搭建的全新AI技术栈,重新回到牌桌。

4月8日,Meta Superintelligence Labs (MSL) 正式发布了其成立以来的首个模型Muse Spark。九个月前,随着Alexandr Wang以首席AI官的身份加入Meta,一场技术重构悄然启动。团队推翻了Llama时代的技术遗产,从基础设施、模型架构到数据管道,全部从头开始。如今,Muse Spark作为这套新栈的首个产出,已直接上线驱动Meta AI。


可以说,在Llama 4因基准测试风波陷入被动后,Muse Spark标志着Meta AI一次不留退路的全面重启。

Muse Spark是什么?

简单来说,这是一个处处与前任Llama“反着来”的模型。它被刻意设计得小巧、轻量,并追求极致的响应速度。本质上,它是一个原生的多模态推理闭源模型。

先看它的几个核心能力:

真正的原生多模态: 不同于将视觉编码器“缝合”到文本模型上的常见做法。Muse Spark从预训练阶段开始,就让文本、图像、语音在同一个高维特征空间里共同学习。这意味着它处理图片时,无需先将其转化为文字描述,而是能直接从像素层面提取和理解信息。

Visual Chain of Thought(视觉思维链): 传统的思维链推理局限于文本领域。Muse Spark将这一机制引入了视觉空间,使其能够在图像内部进行“思考”,自主构建视觉元素之间的空间与逻辑关系。

Contemplating Mode(沉思模式): 对标Gemini的Deep Think和GPT Pro的极限推理模式。但它的独特之处在于非单线串行推理,而是在后台并行启动多个子智能体,各自处理任务的不同维度,最后由主控系统融合结果。在该模式下,其在Humanity‘s Last Exam测试中达到58%,在FrontierScience Research测试中达到38%。

工具调用与多智能体编排: 这些能力均为原生支持,而非后期附加。

目前,Muse Spark已在meta.ai和Meta AI应用上线,沉思模式正逐步灰度开放,同时其私有API也已面向少量合作伙伴提供预览。


技术亮点:效率革命与可预测的扩展

模型发布当日,MSL团队成员几乎集体在社交平台X上发声,透露了几个关键信息。

Meta官方博客披露了一项重要数据:在预训练阶段,新技术栈达到同等能力水平所需的算力,比上一代的Llama 4 Ma verick减少了超过一个数量级。这不是百分之几十的提升,而是十倍以上的效率飞跃。博客原文强调其“显著优于用于对比的领先基座模型”。

Alexandr Wang在推文中提到了一句至关重要的话:“我们在预训练、强化学习和测试时推理三个阶段,都看到了可预测的扩展规律。” 这或许比任何单一的基准测试分数都更有意义。它意味着这套技术栈并非偶然调优成功的“幸运儿”,而是一个具备平滑、可预测扩展曲线的系统性工程。


首席科学家赵晟佳的描述更为形象:模型的训练路径是一次“端到端的教育”——包括“学校教育”(预训练)、“家庭作业”(强化学习)和“在职培训”(产品部署后的持续学习)。他意味深长地补充道:“我们才刚刚开始。”

强化学习部分有一个有趣的技术细节。研究员毕树超提到了训练中最具挑战的部分:大规模强化学习的不稳定性,以及与“奖励机制作弊”作斗争。但最新的博客显示,他们最终将强化学习训练推进到了“平滑、可预测增益”的状态,相关性能指标呈对数线性增长,并且在未见过的评测集上也能平滑泛化。


更有意思的是训练中间出现的“相变”现象:团队引入了“思考时间惩罚”机制。模型起初通过延长“思考”时间来提升表现,随后在惩罚压力下学会了“思想压缩”——用更少的计算资源解决相同问题,之后再次延伸推理以达到更高性能。研究员Ananya Kumar称这个过程“相当巧妙”。

Ananya展示的另一组图表揭示了多智能体推理的关键洞察:多个智能体并行推理,在相同时间延迟下,能达到比单智能体更高的性能。换句话说,沉思模式不仅仅是“让模型想得更久”,更是“让多个模型同时思考不同方面”。


作为多模态底座的总架构师,余家辉的话值得玩味:“这是一段充实的旅程,不仅仅在于构建模型,更在于构建其背后的团队与文化。” 他们在九个月里,同步完成了两件大事。


Jason Wei的回忆则充满了画面感:“第一周,我们在食堂进行了一次漫长的晚餐,畅想研究方向,然后回到桌前写了一个基本的推理脚本。如今,我们拥有了一套相当完整的技术栈,并且发布了第一个模型。”


基准测试:领先与争议并存

那么,Muse Spark在实际测试中表现如何?

在极高难度的医学问答基准HealthBench Hard上,Muse Spark得分42.8,优于GPT-5.4的40.1,更是远超Gemini 3.1 Pro的20.6和Claude Opus 4.6的14.8,领先优势接近两到三倍。

在科研论文图表深度理解测试CharXiv Reasoning上,它以86.4分位居行业榜首。

在真实软件工程任务测试SWE-bench Pro上,达到55.0%,超过了Claude Opus 4.6的51.9%。

然而,在综合性的Artificial Analysis智能指数上,Muse Spark得分为52分,仍落后于GPT-5.4和Gemini 3.1 Pro的57分。

这些数据表明,Muse Spark在需要深度视觉理解的医疗多模态和科研图表领域,已建立起断档式的领先优势,在代码工程上也跻身第一梯队。但其综合能力与纯文本高级推理方面,与顶尖模型尚有差距。

这样的表现也引来了批评。Ndea的联合创始人François Chollet直言Muse Spark“看起来是个令人失望的模型”,他认为模型过度优化了公开基准测试,牺牲了实际可用性。对此,Alexandr Wang的回应显得克制:他承认模型在ARC AGI 2等部分评测上表现不佳,并强调所有数据均已主动公开。

Chollet的质疑并非空xue来风。Llama 4时代,Meta就曾因基准测试争议损伤过信誉。此次Muse Spark在特定领域断档领先,究竟是源于对测试的定向优化,还是其原生多模态架构带来的真实能力突破?这个问题需要更多独立的第三方测试来验证。


更大的图景:一次彻底的技术栈重构

无论如何,Muse Spark的重要性远不止于今天的基准测试分数。

从模型的设计理念,到研发团队重点介绍的技术细节,一切都指向对Llama时代的全面反叛。在扎克伯格看来,Llama 4的溃败必须被彻底翻篇。因此,不仅是开源路线或模型架构需要调整,而是整个训练基础设施都必须推倒重来。此次核心成员们的分享,焦点都集中在底层技术栈的重构上。Muse Spark的发布,也让外界更加明了扎克伯格重金挖来Alexandr Wang及其团队的深层意图。

可以说,最急于告别Llama的,正是Meta自己。它必须在废墟之上,完成重建。

此次发布也是Meta招兵买马后,那支备受瞩目的华人科学家团队交出的首份答卷。余家辉、赵晟佳、任泓宇、毕树超、林纪——这些以前OpenAI核心成员身份被Meta以重金招揽的科学家,在纸面上构成了一个明星阵容。他们的首要任务,就是用一款模型帮助Meta重新在AI竞赛中站稳脚跟。这是扎克伯格的当务之急。

九个月前,扎克伯格交给他们的是一张白纸。如今他们交出的,不仅仅是一个模型,更是一套涵盖了预训练、强化学习、测试时推理的完整技术栈。而最关键的是,这套技术栈的扩展曲线被证明是平滑且可预测的。

这只是一个开始。更大的模型,已经在路上了。


点个“爱心”,再走吧

本文转载于:https://www.163.com/dy/article/KQ2IS4VB0511N33R.html 如有侵犯,请联系zhengruancom@outlook.com删除。
免责声明:正软商城发布此文仅为传递信息,不代表正软商城认同其观点或证实其描述。

热门关注