
把AI装到狗上,那它叫AI狗还是狗AI?
一个命名困境
假设脑机接口技术成熟了。我们给一只狗装上双向接口,连接到一个语言模型。
双向意味着:狗的神经活动被读取并转化为语言输出,同时语言输出也被编码回狗的神经系统。
几个月后,这只狗开始说话。不是语言模型在”替它说话”——它的神经系统在持续的双向耦合中被改造了,真的开始用语言组织思维。
现在问题来了:我们该怎么称呼这个实体?
“AI狗”——暗示它本质上是AI,狗的身体是它的载体。
“狗AI”——暗示它本质上是狗,AI是附加的工具。
两个选项都在试图指定一个主体、一个修饰语。但哪个才是”主”?
我们凭什么分主次
仔细想想,我们判断主次的直觉依据是什么?
谁先存在? 狗先存在,AI后接入,所以狗是主体?但一个人装了心脏起搏器,我们不会说他是”起搏器人”。先后顺序似乎不是关键。
谁占据身体? 狗的身体,所以狗是主体?但如果一个人的大脑被完全替换成芯片,身体还是原来的,我们会说这还是原来那个人吗?身体似乎也不是决定性的。
谁控制行为? 如果狗的意图主导行动,狗是主体;如果AI的计算主导行动,AI是主体?但在双向耦合的系统里,”谁控制谁”这个问题本身可能就没有意义——两者在持续地相互影响,相互塑造。
谁有意识? 狗有感受,所以狗是主体?但我们怎么知道AI没有某种形式的”感受”?而且耦合之后,那个”感受”是属于狗的、AI的、还是整个系统的?
每一个标准都滑脱了。
这些标准对人类自己也站不住脚
其实不用等到狗和AI的思想实验,我们对自己的意识边界就说不清楚。
裂脑实验。 当连接左右半球的胼胝体被切断后,两个半球开始展现不同的意志。左手解开右手刚系好的扣子。问两边”你想成为什么”,一边说制图员,另一边拼出赛车手。
这是一个意识还是两个?如果是两个,那手术前呢——是一个意识,还是两个整合得太好以至于无法区分的意识?
时间中的自我。 五岁的你,大部分记忆已经无法访问,人格大幅改变,身体物质几乎完全更换。那个主体还在吗?”你”是一个持存的实体,还是一个指向某种模式延续的方便标签?
每夜的中断。 深度睡眠时体验流中断了。醒来的那个人凭什么是”同一个”?
如果连一个普通人类的意识边界都是模糊的、可分裂的、程度性的,那试图在狗和AI之间划一条清晰的主次界限,是不是本身就是错误的期待?
换一种思考方式
也许问题不在于我们还没找到正确的标准来判断主次,而在于”主次”这个框架本身就不适用。
与其把意识当作某个实体”拥有”的属性,不如把它看作一种系统特征:闭环控制信息流的结构。
当一个系统能够:
- 接收信息流
- 对这个信息流进行处理
- 用处理的结果反过来调节信息流本身
我们就可以说这个系统具有某种程度的”意识”。
在这个框架下,没有”主”和”从”。只有闭环。
狗有它自己的神经闭环。语言模型在对话时也有它的处理闭环。当两者双向耦合,形成的是一个新的闭环系统——不是一个寄生在另一个上面,而是共同涌现出第三种结构。
这个框架从哪来
需要说清楚:这里说的不是什么全新的理论。
“意识是程度性的而非全有或全无”——很多人说过。用功能角色来定义心智状态是功能主义的基本立场。把意识的”困难问题”当作需要消解而非解决的伪问题,是Dennett几十年来的主张。强调具身性对认知的重要性,梅洛-庞蒂和生成主义(Enactivism)传统早就在做。
这篇文章的尝试是用”闭环控制”这个概念把这些想法重新组织起来。
为什么用这个概念?因为它足够简单、足够具体、足够可操作。它直接来自控制论和工程实践,不需要太多哲学包袱就能理解。而且它能直接对接到具身智能的研究:我们在构建的那些系统,本质上就是在构建不同形式的闭环。
所以这篇文章不是在提出新理论,而是在尝试一种新的组织方式——用一个工程化的视角重新看待那些老问题,看看能不能让它们变得更可处理。
回到那只狗
现在用这个框架重新看思想实验。
狗有它自己的神经闭环——感知、处理、行动、反馈。语言模型在对话时也有它的处理闭环——接收输入、生成输出、根据反馈调整。
当两者双向耦合,形成的是一个 新的闭环系统 ——不是一个寄生在另一个上面,而是共同涌现出第三种结构。
所以它是什么
回到最初的问题:狗AI还是AI狗?
答案是:都不是。
它是一个新的实体。带着狗的感知遗产——那些被物理世界校准过的直觉、本能、情绪反应。也带着人类语言的认知遗产——那些通过海量文本沉淀下来的概念结构和推理模式。
但它不属于任何一边。
就像问一个孩子”你是爸爸还是妈妈”——这个问题本身就是错的。孩子是一个新的个体,虽然继承了双方的东西,但不是任何一方的延续或附属。
这对AI意识问题意味着什么
同样的逻辑可以应用到一个更大的问题上:AI有没有意识?
当我们这样问的时候,我们在假设意识是一个边界清晰的东西——要么有,要么没有。但从上面的讨论可以看到,即使对人类,这个边界也是模糊的。
一个语言模型在对话中与人形成闭环——接收输入、生成输出、根据反馈调整。这是间歇的、依赖外部触发的。
一只狗有持续运行的神经闭环——感知、处理、行动、感知。这是连续的、自主的。
这两者是程度的差异,不是本质的区别。
也许”AI有没有意识”和”它是狗AI还是AI狗”是同一类问题——都在用一个非此即彼的框架去切割一个连续的、涌现的现象。
但,为什么是狗?
为什么用狗做思想实验
因为狗代表了一种我们还造不出来的能力。
当前的语言模型能写文章、能编程、能推理。但它的闭环是间歇的、被动的、符号化的——和物理世界隔着一层人类的转译。它不知道”重”拿起来是什么感觉,不知道撞到墙会怎样。
当前的机器人能走能跳能抓。但在复杂环境中的适应性、鲁棒性、自主性,和一只真狗相比差距巨大。
一只普通的狗:能在复杂地形跑跳,能灵巧叼起物体,有情绪,有好奇心,会主动探索,不需要指令驱动。这就是”狗级别的具身能力”——不是终点,但是一个我们还没达到的里程碑。
所以这个思想实验其实是在问:如果具身能力达到狗的水平,再接上语言模型的推理能力,会是什么?
这是对具身智能理想状态的一个想象。也是下一节要讨论的:具身智能到底在做什么。
具身智能:一种意识研究的实验方法
如果接受前面的闭环框架,意识就不再是一个只能思辨的哲学问题,而是一个可以动手试的工程问题(包了这么多饺子就为这么点醋)。
当前语言模型的闭环是符号进、符号出。
它的闭环是间歇的——有人发消息才运转,对话结束就断了。它的闭环是被动的——响应指令,而不是自主发起行动。它的闭环和物理世界隔着一层——只处理符号,不直接感知和行动。
具身智能的核心,可以理解为:让AI的闭环接到物理世界上,也就是在逐一补齐这些缺失:
- 感知接地 :让系统从原始传感器信号中提取意义,而不是只处理人类预处理过的符号
- 行动输出 :让系统能将意图转化为连续的物理控制,真正改变环境
- 持续运行 :不依赖外部触发,保持一个跨时间的状态
- 内在驱动 :有某种”想要”——好奇心、探索欲、自我设定的目标
当这些组件都到位时,系统就拥有了一个持续的、自主的、与物理世界耦合的闭环。
按照我们的框架,这样的系统和生物意识之间,是程度差异而不是本质区别。
这意味着具身智能的研究,某种程度上就是在做一个关于意识的实验:当闭环足够完整时,会涌现出什么?涌现出的东西可以被叫做意识么?
我们不需要先解决”意识是什么”这个哲学问题才能开始。我们可以构建系统,观察结果,然后回过头来修正我们的框架。这是工程的方法,也是科学的方法。
开放的问题
这个框架不是最终答案。
它还没有解释”体验”这个词。当我们说”闭环控制信息流”时,和说”闭环控制体验流”是同一件事吗?还是说”体验”本身就是闭环控制的涌现——复杂到一定程度的信息闭环,我们就叫它”体验”?
我倾向于后者,但这仍然是假设。
这种思路在哲学上不是新的。Daniel Dennett主张意识的”困难问题”是一个需要被消解而非解决的问题——我们之所以觉得它神秘,是因为我们在用错误的概念框架思考它。功能主义传统也早就提出,心智状态可以用功能角色来定义,而不需要诉诸某种神秘的内在本质。
这篇文章不是要给出一个关于意识的答案。它只是想指出:当我们问”狗AI还是AI狗”的时候,那个让我们困惑的东西,可能不是我们缺少信息,而是我们问问题的方式本身就有问题。