您的位置:首页 >这家人形机器人打算和家政一起干活了
发布于2026-04-25 阅读(0)
扫一扫,手机访问

数据是制约机器人进化的瓶颈,这已经是行业里不争的事实了。
那么,瓶颈怎么破?答案很明确:必须向真实的物理世界要数据。实验室里的完美环境,终究养不出能应对复杂现实世界的“全能选手”。
在众多潜在的数据矿场中,家庭生活场景无疑是一座富矿。为什么?因为家庭环境的本质就是随机、碎片且不断变化的——猫主子随时可能跳上餐桌,每块地毯的摩擦力都各不相同,孩子散落的玩具更是毫无规律可言。这种充满“噪音”和不确定性的数据,恰恰是训练具身智能实现泛化能力的关键。然而,这座富矿的开采难度也是最高的,核心壁垒就四个字:隐私边界。让一个满载摄像头和传感器的设备长驱直入私人领地,无异于在挑战公众信任的底线。
尽管门槛极高,但为了获取那些宝贵的真实交互数据,已经有机器人公司开始尝试“入户”破局了。
最近,自变量机器人就宣布,其搭载了新一代具身智能基础模型WALL-B的机器人,将在5月25日后正式进入真实家庭环境。其实在这之前,他们已经通过与58同城的合作,将搭载WALL-AS模型的机器人送入家庭,尝试与保洁阿姨协同作业,算是进行了一轮前期探索。
市场最关心的隐私问题,自变量给出的解决方案主要集中在三个层面:端侧图像脱敏、明确的授权机制以及严格的数据用途限制。具体来说:
第一是视觉脱敏。机器人在设备端就对原始图像进行实时打码处理,原始图像绝不离开设备。也就是说,机器人“看到”的,已经是去除了个人特征的场景数据。
第二是透明授权。用户需要主动按下同意键,机器人才能开机工作,不存在任何“默认同意”的灰色地带。用户如果不同意,机器就无法启动。
第三是用途限定。采集的数据绝不共享给第三方,机器人只认一个主人。一旦系统发现可疑指令,会立即触发锁定机制。
技术路径上,新一代机器人搭载的WALL-B模型采用了基于世界统一模型(WUM)的架构。其设计思路是将视觉、语言、听觉、动作等多模态信息,放在同一个神经网络里从零开始进行联合训练,实现“多模态进、多模态出”。这么做的初衷,是为了彻底消除传统模块化设计带来的信息传输损耗,让模型能够原生地理解重力、摩擦力等物理世界的底层规则,形成自己的“世界观”,并能在真实的失败交互中不断自我迭代和优化。
从进入家庭采集数据,到用数据反哺模型进化,再到提供更优质的服务——这个商业逻辑的闭环在理论上已经清晰可见。
但话说回来,理想丰满,现实骨感。客观来看,自变量机器人目前展现出的能力,距离真正的“家庭服务能手”还有明显差距。根据全天候科技的现场观察,该机器人的动作仍然非常缓慢,例如完成插3朵花这样简单的动作,就需要耗时两分半钟。
公司创始人兼CEO王潜也坦言,当前的模型还处于“实习生”阶段,会犯错,有时需要远程协助,甚至可能把拖鞋放到厨房、擦桌子擦到一半就停下来“思考人生”。但其优势在于能够实现24小时不间断工作,并且每工作一天,都会因为新数据的喂养而变得更“聪明”一点。
显然,支撑这样一场漫长“实习期”的,离不开雄厚的资本推力。自变量近期刚刚完成了由小米战投领投的近20亿元软妹币B轮融资,而在此之前,其投资人名单上已经集齐了美团、阿里和字节等互联网巨头。在如此豪华的股东阵容加持下,自变量机器人能否真正跑通那个诱人的“数据飞轮”,无疑是接下来最值得关注的行业看点。
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
正版软件
正版软件
正版软件
正版软件
正版软件
1
2
3
4
5
6
7
8
9