2017 · 过度乐观期
「三年内机器人应该被完全解决,AI 还能攻克大定理,拿编程竞赛冠军」1
心胜于物: 从具身到智能
2025-12-05
Figure 03 的现实: TIME 记者在同一场 demo 里的记录
机器人往洗衣机装衣物时,连续两次把衣服掉在地上,始终不会自己捡起.
最终由工程师走上前,把衣物移出镜头,刻意移出我的视线.
But the robot’s limitations were too obvious to hide
Neo 的真相: 坦诚的 Teleop-first 路线
宣传: 像家用版 ChatGPT, 能接”家务清单”: folding laundry, organizing shelves, taking out trash…
高度依赖 远程遥操作 + 人类专家兜底, 而非真正端到端自主.
Data can solve almost all current problems.
— Brett Adcock1, CEO of Figure AI
高维空间的轨迹插值
无法建模信念状态
人工标注无法收敛
现象:OOD 场景下的性能崩塌
本质:基于像素的插值拟合,缺乏结构化推理
看似泛化,其实是场景记忆
高维空间的轨迹插值
无法建模信念状态
人工标注无法收敛
现象:长程任务中的执行中断与死锁
本质:短视的反应式策略,缺乏内部任务状态
多阶段任务一偏轨就“断片”
没有真正的纠错与自救能力
只实现了”像素 → 动作”的局部反应式映射
缺乏内生记忆机制
高维空间的轨迹插值
无法建模信念状态
人工标注无法收敛
现象:高昂的部署成本与”示教地狱”
本质:以离线监督学习应对开放世界挑战
高维空间的轨迹插值
无法建模信念状态
人工标注无法收敛
Can data really
solve those problems?
路径不明 ·
Yann LeCun
The big secret… is that companies have no idea how to make their robots smart enough to be generally useful.1
模态缺位 ·
Rodney Brooks
Today’s humanoids will NOT learn dexterity in the real world, just from watching videos and doing end-to-end learning.2
资源错配 ·
国家发改委
防范重复度高的产品「扎堆」上市,研发空间被压缩等风险.3
整个行业都在堆 demo,赌未来,但缺乏可验证的技术路线
VLA是在错误模态上放大投入, 但我们真的想要研究触觉吗?
资本盲目跟风炒作,导致长周期基础研究被边缘化
Warning
结论:当技术路线本身尚不清晰时,盲目扩大数据规模并非逼近真理,而是在放大系统性风险
2017 · 过度乐观期
「三年内机器人应该被完全解决,AI 还能攻克大定理,拿编程竞赛冠军」1
2019 · Dactyl 高光时刻
单手还原魔方——宣传「接近人类灵巧度」的里程碑2
2021 · 关闭机器人团队
「机器人拿不到足够数据,看不到 scale 的路径」3
2023 · 「需要极大决心」
「你需要真的爱机器人: 要造几万台机器人,长期采集数据」4
2025 · 冷静悲观期
「真实世界中快速学会新技能,对机器人来说非常够不着」5
We’re moving from the age of scaling to the age of research
Let’s go back
to the age of research
只有主动组的小猫发展出正常的视觉引导行为: 接近桌边时适当伸出爪子,对靠近的物体做出眨眼反应, 并能够避开视崖
经典的Held&Hein1旋转木马小猫实验经常被引用来说明具身性(embodiment)在认知发展中的重要作用
| 维度 | Code Agent | Embodied agent |
|---|---|---|
| 适用范围 / 分布依赖 | 在主流技术栈和高曝光开源仓库中表现亮眼,但一旦进入企业内部工程或全新项目,依赖理解、架构约束等错误显著增多。 | 在实验室布景和固定 Demo 场景中成功率很高,但迁移到不同场地、不同布置或真实家庭环境时,性能快速退化。 |
| 长程任务中性能退化 | 多轮修改后难以稳定维护项目状态:早期设计约束和不变量常在后续重构中被破坏,同类 bug 在不同版本间反复出现。 | 在多阶段操作中,遭遇轻微偏差或噪声时容易“迷失步骤”,出现抖动、停滞或错误收尾,缺乏清晰的内部任务进度表示。 |
| 缺乏自主性 | 名义上是“自动写代码 / 自动 PR”,实际仍依赖人类拆解需求、审阅和修订 patch、补测试与制定回滚策略。 | 名义上是“自主机器人”,实际需要工程师与操作员持续示教、重置环境、监控状态与处理异常,以确保任务完成与安全边界。 |
| LeCun(World Model) | Ilya(The “it” factor) | Sutton(OAK) | 人 | |
|---|---|---|---|---|
| 在部署时学习 | intelligent machines that learn more like animals and humans, that can reason and plan | A human being is not an AGI. Instead, we rely on continual learning. | We need agents that learn continually. | 终身学习 |
| 样本效率/泛化性 | Using such world models, animals can learn new skills with very few trials. | These models somehow just generalize dramatically worse than people. | solution methods that efficiently utilize the limited resources of the agent. | 在分叉点上做“心理摸奖”(vicarious trial‑and‑error)1 |
| 自我激励/好奇心/情绪 | whose behavior is driven by intrinsic objectives, rather than by hard-wired programs, external supervision, or external rewards. | maybe what it suggests is that the value function of humans is modulated by emotions in some important way that’s hardcoded by evolution. | In a biological system, we might think of rewards as analogous to the experiences of pleasure or pain. | 多巴胺, 对未来的模拟改变了对当前的选择, 对过去的模拟加强了对世界的建模2 |
| 世界模型/反事实推理 | The world model module predicts possible future world states as a function of imagined actions sequences proposed by the actor. | The value function lets you short-circuit the wait until the very end: after a thousand steps of thinking, you conclude a direction is unpromising | The model takes a state and a way of behaving, and tells you what the result state will be. | 海马体和 PFC 的表征呈现出“预测性”:它们编码的是将要抵达的位置、未来路径的抽象结构,而不只是当前感受。3 |
资源投入
技术主线