您的位置:首页 >大模型创业公司,为什么越来越多在往“小”做?
发布于2026-05-01 阅读(0)
扫一扫,手机访问

题图来自:AI生成
想象一下这个场景:把你的安卓手机调到飞行模式,然后对着屏幕问:“帮我总结一下昨天的会议,挑三个待办事项。”它真的能回答你。答案或许不够惊艳,但绝对靠谱。
自2024年11月OpenAI发布ChatGPT以来,我们几乎都默认了一个逻辑:你的问题会奔向遥远的数据中心,由成千上万的GPU计算出答案,再传回你的屏幕。这个过程昂贵、缓慢且依赖网络,但所有人都认为,这就是AI该有的样子。
然而,仅仅三年后,一台断网的手机就轻飘飘地推翻了这种印象。
特别是最近半年,如果你和大模型行业的人交流,会发现一个词的提及频率越来越高——端侧。
大模型上半场的竞争逻辑异常清晰:参数大就是硬道理。
GPT-4问世后的那一年,国内拿到融资的公司,PPT首页几乎都在堆砌数据——多少B参数、多少万亿token、多少张H100。投资人也认可这套逻辑。先把规模拉满,故事就成立了。
但资金烧到今天,账本逐渐清晰起来。
2025年,OpenAI的估值虽被推至五千亿美元量级,但其预计的税前亏损也达到了惊人的212亿美元。Anthropic的情况看上去稍好:毛利率从2024年的-94%改善到2025年的40%出头,但同期的EBITDA(息税折旧及摊销前利润)亏损仍有52亿美元。至于Cohere和Mistral,则反复传出寻求被收购的消息。
这个行业中,所有依靠售卖API调用为生的公司,最终都站在了同一条曲线的不同位置上:营收在增长,亏损也在同步扩大。用户越多,亏损反而越严重。毛利率改善的速度,根本赶不上算力消耗扩张的步伐。
这完全违背了互联网时代的常识。过去二十年,规模意味着壁垒,也意味着利润。但在大模型这门生意里,规模却意味着持续不断的算力消耗,因为每一次用户与AI的对话,背后都是实打实的电费和GPU折旧。
更尴尬的是,这条成本曲线看不到明显的下行拐点。模型再强大,单次推理的边际成本依然坚挺地摆在那里。
让我们把视线从云端移开。
如果在2024年的手机发布会上听到“NPU”这个词,你多半会觉得有些尴尬。芯片厂商鼓吹了好几年,但市面上几乎没有什么应用能真正用上它,它就像一个反复被写进PPT、却又被现实辜负的未来承诺。
到了2025年,情况开始不同了。这种能力正在兑现。
芯片厂商开始主动找模型公司谈适配,因为终端客户在追问。手机用户也开始发问:为什么我的AI助手一离线就用不了?为什么换个网络环境,它的反应就慢半拍?这些问题本身就意味着,AI已经被人们当作水电一样的基础设施了。它需要随时可用,不能挑网络环境。
与此同时,模型这一侧也终于跟上了步伐。
过去几年,量化、蒸馏、稀疏注意力等工程方法被一批团队反复打磨。如今,一个仅几B参数的模型,经过精心设计,在多模态理解、长文本处理、OCR识别这些原本被认为只有庞然大物才能胜任的任务上,已经能做到让人挑不出毛病的水平。
最直接的体现是,它真的能被装进设备里。手机芯片那点显存——苹果A系列大概八九GB,骁龙旗舰也差不多——以前看是性能的天花板,现在反过来成了一种“刚刚够用”的约束,恰恰逼着模型公司把每一层结构、每一个参数都优化到极致。
由此可见,端侧AI近两年的真正拐点,并非某一项技术突然成熟,而是模型、芯片、终端三方在同一个时间窗口里,互相找到了对方,形成了合力。
目前,将端侧作为核心战略押注的玩家,已经分成了几个清晰的阵营。
第一拨是终端厂商,亲自下场做模型。
苹果的Apple Intelligence是最具代表性的——大约30亿参数级别,主打“端侧优先、云端兜底”。它的存在意味着苹果决定不再将AI能力完全外包给OpenAI,即便后者声称双方是“合作”关系。谷歌走得更激进,直接将Gemma Nano预装到Pixel系列,并在Android 14之后开始向手机厂商开放底层API。
终端厂商亲自下场的逻辑很清晰:一旦AI成为系统级功能,它就不该是让别人收取“过路费”的环节。
第二拨是大公司开源出来的小模型。
微软的Phi系列是这条路上的标志性产品。Phi-3用3.8B参数做出了能对标部分70B模型的能力,证明了“小模型+精选数据”路线的可行性。Meta的Llama 3.2在2024年下半年推出了1B/3B版本,并明确标注“为端侧设计”。谷歌的Gemma系列也走类似路线,开源出来供整个生态使用。
这一拨玩家的共同特点是:它们并不指望靠这些小模型直接赚钱。它们是在为整个生态铺路。路铺好了,再通过硬件、云端服务或其他业务来盈利。
第三拨,是真正把“小尺寸”当作核心战略的创业公司。
Mistral是其中最早的探索者。从7B参数起家,在欧洲拿下了一批政企客户。但因为故事过于依赖开源,在2024年微软入股后,其处境变得有些复杂。
国内方面,阿里的Qwen系列推出了从0.5B到7B的小尺寸版本,覆盖端侧多个段位,但由于同时还在运营大尺寸API业务,端侧并非其唯一主线。智谱的GLM也有端侧版本,但商业重心仍在云端。真正把端侧当成绝对主线在做的,国内最具代表性的或许是面壁智能,其MiniCPM系列声称达到了与GPT-4o同级的水平。这种说法在一年前几乎会被所有人认为是夸口,但现在,它确实发生了。
把这几拨玩家放在一起看,端侧AI早已不是“小公司的避风港”,它正在成为整个行业重新组织技术路线、商业模式和生态竞争的核心方式。
当然,话得说回来。端侧AI前景虽然广阔,但绝非一个完美的童话。
把模型塞进设备这件事,工程上的麻烦比想象中琐碎得多。安卓机型成千上万,各家芯片的API不同,系统定制层更是每个厂商各有各的讲究。一个端侧模型想在这片土壤里跑顺,光是适配工作就够一家小公司喝一壶——这件事没有捷径,只有一行行地写代码、一台台机器做实测,一次次跑通之后,可能又被下一代芯片或系统更新打破,然后重新再来。这种活算法工程师未必爱干,但端侧这条路,恰恰就是由这些不那么“性感”的苦活累活铺就的。
此外,模型公司还得面对一个更隐性的挑战:手机厂、芯片厂、车厂本身就是产业链中极为强势的一方。被预装、被集成看上去是“赢了”,但同时也意味着随时可能面临被替换、被压价、被边缘化的风险。Mistral这两年在欧洲的处境多少能说明问题——它既要满足法国政府对“主权AI”的期待,又要应付微软入股后可能带来的话语权变化,左右为难。
端侧换来的是更扎实、更贴近用户的商业化路径,但也意味着必须深度融入合作生态,成为复杂产业链中若干环节的一环,而非主导者。
如果说大模型的上半场,比拼的是谁能把山攀得最高;那么下半场,比的或许是谁愿意走下山,走进具体的设备里、具体的场景中、具体的人面前。
去年那台在飞行模式下流畅应答的安卓手机,今年我又见过一次类似的场景——在朋友的车上,离线导航和语音交互全都跑在本地。
云,依然在很远的地方。
但AI,已经到了。
本内容由作者授权发布,观点仅代表作者本人,不代表虎嗅立场。如对本稿件有异议或投诉,请联系 tougao@huxiu.com。
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
正版软件
正版软件
正版软件
正版软件
正版软件
1
2
3
4
5
6
7
8
9