新闻资讯

真正聪明的机器人关门不用手用胯骨轴

添加时间:2026-01-29 点击:

  昨天,硅谷机器人巨头 Figure AI 发布了 Helix 02 ——官方称之为「一个视觉-语言-动作(VLA)通用模型」。

  最直观的展示?一台 Figure 03 机器人走到碗柜前,打开柜门,从堆叠的碗碟中挑出一个,转身走向洗碗机,调整角度,稳稳放进去。

  机器人(与机器人使用的模型)要判断自己的位置,识别碗柜、水槽、洗碗机的位置关系,然后规划路线走过去。

  看到餐具之后,还得识别类型:瓷盘、玻璃杯、塑料碗,每种都需要不同的姿势和力度。

  捧起来,还得检测要放进洗碗机的哪个位置,盘子放下层、杯子放上层,餐具放侧边。

  陶瓷很脆、玻璃很滑、塑料会变形,机器人需要精准的触觉反馈控制力度——太轻会滑落,太重会捏碎。

  结合视觉、触觉、压力、电感等等多种 sensor,它有了一套多维度的立体视觉能力,能准确判断碗在堆叠中的位置和深度。

  Figure 03 机器人的手上也集成了力反馈机制,能「认知」到自己施加的力量,知道何时接触到了瓷器表面。

  打开碗柜时,即使现在的角度看不到某个碗,它也记得刚才瞥见过,并根据记忆调整动作。

  没有远程遥控,运行(这个机器人)的是 Helix,从走路到抓握,以及规划。

  Brett Adcock 还重申,同样的通用架构之前让机器人学会了叠毛巾、整理包裹,现在又学会了洗碗。

  眼下唯一的限制就是预训练数据,只要我们给 Helix 喂入更多数据,机器人就能处理更多任务。硬件不需要任何改变,它已经能做大部分人类能做的任务了。

  这条推文下面,有 X 用户评论:「第一次看到人形机器人真的在家里做任务,让我意识到我们离这个未来有多近。」

  另一边,Figure AI 绝不是那种在实验室里纸上谈兵的「创想公司」。

  三年的时间里,Figure AI 的估值从 0 来到 390 亿美元,得到了包括贝佐斯基金、OpenAI、微软、英伟达的投资助力。

  进入机器人领域后,Adcock 陆续从波士顿动力、特斯拉、谷歌 DeepMind 挖来了一堆顶尖人才,Figure AI 的技术实力迅速增长。

  从最初与 OpenAI 合作研发,到现在完全自研,Figure AI 成功把模型话语权牢牢握在手里。

  System 0 负责机身运动控制,解决机身平衡、手指接触、环境扰动等底层控制问题,作用很像人类的小脑。

  三层协同,最终实现了 Figure 03 可以自主理解指令,认知周围环境,并决定机身如何运动的循环。

  之前小规模试产的 Figure 02 配备 6 个 RGB 摄像头、双 GPU 模组,手部拥有 16 个自由度,最大搬运重量 25 公斤。

  到了最新的 Figure 03,它的每只手掌都内嵌摄像头和触觉传感器,可以实现最低 3g 的压力检测。

  更关键的是,FigureAI的机器人「肯进厂」,拥有快速组装送往实战的能力。

  在那儿,Figure 02 负责把钣金零件精准放置到固定装置里——大型固定式机器臂难以照顾的精细活儿。

  这些 Figure 02 在宝马累计工作了 11 个月,总行走里程近 200 英里,搬运了超过 9 万个零件,协助生产了超过三万辆宝马 X3。

  Adcock 还晒出了布满划痕和磨损的机器人照片,表明这是一次「真刀真枪」的商业验证:

  看到机器人拧螺丝,宝马生产部门董事 Milan Nedeljković 总结:

  通过早期测试,我们正在确定人形机器人在生产中的可能应用。我们未来希望可以从(机器人的)技术开发阶段就参与进来。

  比如在 2024 年,OpenAI 不仅给 Figure AI 提供了投资,甚至帮助开发了语音模型,让机器人能接受自然语言指令。

  尽管 Figure 后来转向自研 Helix,但这段合作实质上为 VLA 模型打下了一个基础。

  类似 LG 和海信都展示了能在家里自主移动、协助做家务的机器人原型,说明传统家电企业纷纷开始意识到:

  下一代智能家电不是算力更强的冰箱或洗衣机,而是能直接操作这些设备的机器人。

  就在刚刚,蚂蚁集团旗下灵波科技开源了具身大模型 LingBot-VLA。

  LingBot- VLA 作为一个面向真实操作场景的「智能基座」,实现了机器人跨本体、跨任务泛化能力。

  根据灵波科技的数据,LingBot-VLA 在包含 100 项线 评测中,刷新了真机评测的成功率纪录。

  不只是蚂蚁,京东、阿里、腾讯、华为、比亚迪、小米——几乎所有科技巨头都在布局具身智能。

  2024 年中国人形机器人市场规模达 27.6 亿人民币,2029 年有望扩大至 750 亿元,到 2035 年更是可能激增至 3000 亿元。

  目前已经有多家具身智能公司有望登台展示——不是摆设,是真能上台唱跳 rap 的那种。

  厂商其实不需要为每个任务单独编程,不需要收集巨量推演数据,只要一个足够强的 VLA 模型,机器人就能自己理解指令、自己熟悉环境、自己生成策略。

  就像 GPT 之于语言,Helix 之于具身智能一样,今天机器人能刷碗、打螺丝,明天它就能照顾你的饮食起居。

首页
电话
短信
联系