<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Embodied-Ai on</title><link>https://coolbeevip.github.io/tags/embodied-ai/</link><description>Recent content in Embodied-Ai on</description><generator>Hugo -- gohugo.io</generator><language>en-us</language><lastBuildDate>Mon, 20 Apr 2026 00:00:00 +0800</lastBuildDate><atom:link href="https://coolbeevip.github.io/tags/embodied-ai/index.xml" rel="self" type="application/rss+xml"/><item><title>具身智能大脑负责什么：一个场景化边界分析</title><link>https://coolbeevip.github.io/posts/ai/ai-embodied-brain-scenario-analysis/</link><pubDate>Mon, 20 Apr 2026 00:00:00 +0800</pubDate><guid>https://coolbeevip.github.io/posts/ai/ai-embodied-brain-scenario-analysis/</guid><description>导读 本文只讨论一个问题：把具身智能系统拆开以后，具身智能大脑到底负责哪一段。
这个问题不能靠抽象定义回答，只能放进具体场景里看。下面用一个动态非结构化实验室危险品二次分类场景，把执行层、空间智能、世界模型、具身智能大脑的边界拆开。
先把几个词说清楚，后面会轻松很多：
SO101：一种低成本桌面机械臂，这里把它当作具身平台的代表 空间智能：负责理解几何关系、障碍物和局部物理安全的层 世界模型：用于估计动作发生后环境可能如何演化的预测模型 具身智能大脑：负责处理意图、风险和重规划的治理层 层级 职责 执行层 把指令转成电机和关节级控制 空间智能 识别几何关系并维持即时安全 世界模型 预测接下来可能发生什么 具身智能大脑 重建执行计划并做治理性决策 场景设定：动态非结构化环境下的实验室危险品二次分类 这里选一个适合 SO101 这类低成本机械臂平台的任务作为分析基准：
动态非结构化环境下的实验室危险品二次分类与意外处置。
选这个场景，有三个现实前提。
第一，没有昂贵的机械臂本体。分析对象不是高自由度、高精度的工业级平台，而是类似 SO101 这样的低成本机械臂。所以讨论重点不能压在本体性能上，只能压在系统层的任务组织、异常治理和风险控制上。
第二，搭不起复杂实验环境。没有高规格实验室，没有大规模传感器阵列，也没有完整的工业安全隔离设施。场景必须能在有限的桌面环境里复现，同时还能把任务目标、环境扰动和安全约束之间的冲突暴露出来。
第三，场景本身得能说明问题。它不能只是一个静态抓取 demo，不然看到最后还是感知和轨迹执行，执行层、空间智能、世界模型、具身智能大脑的边界都拉不开。实验室危险品二次分类这个任务同时带着语义目标、动态扰动和风险后果，正好能把系统真正要回答的问题逼出来。
这个场景同时带着三类复杂性：
指令是模糊的，需要做语义对齐 环境是动态的，执行中会发生突变 决策带有安全后果，不能只追求动作完成 用它来检验这四层的边界，够用了。
边界零：执行层负责驱动机械臂，不负责理解任务 这里的执行层包括运动控制、轨迹跟踪、伺服驱动、夹爪开合、关节级控制和底层安全联锁。它接收上层给出的目标位姿、轨迹段、速度约束、抓取力度或停止指令，再把这些东西变成电机、关节和末端执行器真正能执行的控制信号。
执行层的职责包括：
将目标位姿或轨迹转换为关节级控制命令 保证轨迹跟踪、速度控制和夹爪执行 在控制周期内维持伺服稳定性和执行精度 响应急停、限位、力控阈值等底层保护机制 这一层管的是动作怎么稳定、可重复地落到机械臂上。
边界一：具身智能大脑处理意图，不直接下沉到动作控制 先看任务输入。
把桌面上所有带红色标签的试剂盒放进回收箱，不要碰到那个蓝色烧杯。
这句话看上去很简单，但里面已经埋了很多约束：
&amp;ldquo;所有带红色标签的试剂盒&amp;quot;不是一个固定坐标，而是一类语义目标 &amp;ldquo;放进回收箱&amp;quot;不是单步动作，而是一串子任务 &amp;ldquo;不要碰到蓝色烧杯&amp;quot;不是建议，而是一个硬约束 这里关键不是动作序列，而是执行计划。
这一阶段，具身智能大脑负责意图对齐：
识别用户到底想处理什么对象 明确哪些对象是可操作目标 明确哪些对象是绝对不能碰的约束物 把自然语言指令拆成可执行的子目标链 把模糊的人类目标，整理成带约束的执行计划。
边界二：空间智能看几何变化，具身智能大脑重建执行计划 再看一个执行中断事件。
SO101 正在抓取一盒带红色标签的试剂盒，实验室工作人员意外碰撞了桌面。结果有两个变化同时发生：
药盒相对原位置偏移了大约 5 厘米 蓝色烧杯朝机械臂原有运动路径方向倾斜 空间智能负责什么 空间智能负责对几何变化做快速感知和即时响应。
它看到的是：
目标位置变了 障碍物姿态变了 原路径的碰撞风险变高了 它先保物理安全闭环。</description></item></channel></rss>