第四部 · 文明尺度 · 文明该如何演化?

XIII · 智能与智慧

~34 分钟 · 13,239

XIII · 智能与智慧

第一部至第三部依次展开实在、个人与社会三个尺度。第四部转向文明尺度,人类历史最漫长的弧线。在这个尺度上,问题不再是个体或群体如何变得清醒,而是什么力量决定了整个文明是否走向明度。

本章以我们时代中对文明走向影响最深的力量开启第四部:人工智能的崛起。AI时代最深的混淆不在技术层面,而在概念层面,我们把「智能」和「智慧」混为一谈。在文明尺度上,这种混淆比任何具体技术都危险。AI拥有强大的智能,然而智慧要求更多:体验有限性,容忍不确定,敬畏不可言说之物。本章区分两者,然后追问:当注意力被捕获、创造力被外包、教育被重新定义、权力被集中,清醒意味着什么?第§XIV章与第§XV章将进一步展开文明清醒的完整弧线,直至宇宙尺度;然而智能与智慧的辨析必须先行,因为它决定了哪一种文明轨迹在更大框架中成为可能。

我们的时代自称「智能时代」。这个命名本身就值得审视。

XIII.1 · 智能与智慧的本体论区分

命题 (E-Int) E-Int(从E2P5推出)

智能(intelligence)与智慧(wisdom)是根本不同的能力模式。前者可被外化与扩增;后者只能在有限(公设四)体验者(D9)的内部生长。

附释: 我们说一个系统「智能」1,通常指什么?识别模式的速度,优化目标的效率,处理信息的广度,在约束下找到解的能力。这些能力真实、可测量、可外化,能编码到硅基系统中,而硅基系统在几乎所有可量化维度上已超越碳基系统。

但「智慧」指向完全不同的东西。

智能回答「如何」(how),智慧回答「是否应该」(whether)。 智能在给定目标下寻找最优路径;智慧判断目标本身是否值得追求。智能可以在任何价值函数下运行;智慧质疑价值函数本身。

在AI出现之前,这个区分并不紧迫,因为人类历史的绝大部分时间里,智能和智慧耦合在同一载体(人脑)之中。AI第一次将智能从智慧中解耦。 一个大语言模型可以处理人类全部知识、生成连贯推理,却不「知道」自己在做什么。这非技术尚未成熟。按明在道的框架,「知道」预设了E2意义上的体验,体验又预设了有限性(P5)。一个没有死亡、没有身体、没有不可逆损失的系统,即使信息处理能力无限,也无法拥有我们所说的「智慧」2。智慧是体验的沉淀(C2.2),而非信息的函数。

推论 (E-Int.1) E-Int.1(遮蔽推论)

将智能误认为智慧是智能时代最危险的遮蔽(D6)形式。

附释: 这种遮蔽有多种表现。

将AI的输出当作智慧。模型可以生成听起来「有智慧」的文字,但那是模式匹配的产物,不是体验的结晶。食谱不是食物。

用智能替代判断。当决策越来越多地委托给算法,我们获得了更好的「how」,却逐渐丧失「whether」的能力。不再练习判断的人,判断力会萎缩,正如不使用的肌肉终将退化。

效率崇拜。智能时代的隐含价值观是「更快、更准、更多即更好」。但E3(能动性公理)提醒我们:一顿慢慢做的饭,可以比完美优化的营养液更有意义,因为做饭这个过程本身包含注意力、选择、不完美,以及与他人共享的可能。这些正是体验的质地。

知识幻觉。这是最隐蔽的一种遮蔽,因为它让被遮蔽者感觉自己更明。当一个人将问题交给AI并获得流畅的回答,他很容易将AI的认知成果误认为自己的理解。他觉得自己「懂了」,但实际上他只是看到了一个答案,并未经历理解的过程:未经历困惑、未做过取舍、未在错误中修正方向。结果是一种认知上的空心化:表面的\(\lambda\)(理解度)上升,实际的\(\lambda\)原地踏步甚至下降,遮蔽度\(\delta\)在不知不觉中扩大。这种遮蔽之所以危险,在于它与其他三种遮蔽的方向相反:前三种让你感到不安或至少引发怀疑,知识幻觉让你感到自信和满足,恰恰消解了你检查自身遮蔽的动机。

推论 (E-Int.2) E-Int.2(立场推论)

智能值得工具性尊重,但在本体论上不可等同于智慧。

附释: 明在道既不恐惧智能,亦不崇拜智能。尊重其能力,拒绝将其等同于智慧。 AI作为工具,可以极大地扩展人类认知,这值得珍视。但AI无法代替人类做出价值判断,因为价值判断预设了体验主体性(E2),而体验主体性预设了有限性(P5)。这是本体论鸿沟,与技术能力无关。智能时代的清醒由此可得:善用智能来增强你的认知广度,但永远不要将价值判断的权力让渡给没有体验的系统。

从认知方式的角度看(公设三认识论推论):AI擅长感知与理性,在理的面向上已经并将继续超越人类。人类的独特优势在于实践智慧与直觉体悟,即玄的面向,不可规则化,也不可轻易算法化。人类与AI协作的最高形式,是四种认知方式的整合。

当越来越多的决策由AI辅助甚至主导,刻意保留人类判断的空间恰恰是对智慧的保护。正如罗马共和国的微内核设计刻意限制执政官权力以保护系统适应性,人类社会同样需要限制算法决策的范围,以保护判断力的活性。

推论 (E-Int.3) E-Int.3(稀缺性推论)

智慧不可规模化:智能可以无限扩展,智慧只能在个体内部生长。

附释: 这个时代最稀缺的并非智能,乃是智慧。智能可以规模化,一个模型训练完成后,同时为十亿人服务。智慧不能。它只在个体内部,通过时间、体验、反思、失败和选择,一点一点地生长。没有快捷方式。你无法下载智慧,无法众筹智慧,无法用更大的模型「涌现」出智慧。

由此产生智能时代最深刻的悖论:智能的供给爆炸式增长,智慧的供给增速接近零。 剪刀差将持续扩大。在这一背景下,明在道的「明」(E1)和「能动性」(E3)获得了新的紧迫性。清醒,意味着在信息与智能过剩的环境中保持辨别力,分辨什么是真正重要的?能动性,意味着拒绝被智能可优化的维度所定义(效率、产出、指标),转而珍视只有在有限体验中才能生长的东西:爱(AF5)、友谊、对美的敬(AF15)、面对不确定性的勇气。

智能时代最需要的,恰恰是智能无法提供的。 这并非对AI的批判,而是对人类责任的提醒。这一论点在文明尺度上有惊人的推论:第§XIV章的T6(文明沉默定理)表明,沿明度梯度演化的文明会变得越来越安静,智慧的不可规模化不仅是个人困境,更是文明命运的分叉点。

图5. 第十三章 · 智能与智慧的结构性对比
图5. 第十三章 · 智能与智慧的结构性对比
图4. 第十三章 · 智能-智慧二维谱系
图4. 第十三章 · 智能-智慧二维谱系
推论 (E-Int.5) E-Int.5(责任推论)

如果智慧不可外化,那么拥有智慧的存在者(D7)承担着不可委托的责任:道德判断不能被外包。

附释: 道德判断之所以不能被外包,根据在于E3(能动性公理)。你可以让AI帮你起草合同、分析数据,甚至建议策略。但「这件事应不应该做」,这个判断永远只能由你来承担。「承担」这个词本身预设了一个能为后果负责的体验主体。没有体验的系统无法「承担」,它只能执行。

智能时代有一种深层诱惑:把责任佯作效率问题来消解它。 「让算法决定谁获得贷款」,听起来像效率优化,实质上却是把一个关乎人类命运的判断(谁值得信任?谁应该获得机会?)从有体验的判断者手中转移到无体验的优化器手中。清醒意味着识别这种转移,并在关键节点坚持人类判断的在场。

推论 (E-Int.6) E-Int.6(培育推论)

智慧的生长需要特定条件,而这些条件在智能时代正在被系统性地侵蚀。

附释: 这些条件具体包括:慢思考、失败、无聊、不确定性(公设六)的忍耐。智慧不在舒适中生长。它需要,算法却奖励即时反应。它需要失败,AI却帮你规避大部分不适。它需要无聊,屏幕却填满你每一秒空白。它需要与不确定性相处的耐心,搜索引擎却让你以为每个问题都有答案。

E-Int.3说智慧的供给增速接近零。E-Int.6更进一步:智慧生长的土壤正在流失。 两者不同:前者是「增长慢」,后者是「连增长的条件都在消失」。一个社会若系统性地消除了慢思考、失败、无聊和不确定性的空间,便是在系统性地消除智慧生长的可能,无论它多么「智能」。

保护智慧生长的条件,是智能时代的一项基本责任:为慢思考留时间,为失败留空间,为无聊留间隙,为不确定性留耐心。准确地说,这是对人类最稀缺能力的生态保护。

附释(具身性声明的认识论地位): E-Int.6隐含一个主张:智慧需要有限性和具身性作为生长条件。这里须区分两个层次。较弱的版本:具身性深刻地塑造了智慧的特征,具身认知科学提供了经验支持(Lakoff & Johnson 1999, Varela等 1991)。较强的版本:没有具身性就没有智慧,这仍是一个开放的猜想,而非已证的定理。如果未来出现非具身却展现真正智慧特征的AI系统(不仅仅模拟智慧,而是包含不可逆的存在代价和真正的认知有限性),明在道应当修正这一声明。诚实地标记这个区分,比假装它已获证明更符合P7的要求。详见§XVII.2(反驳七)。

图3. 第十三章 · 明度的乘积结构:平衡胜过极端
图3. 第十三章 · 明度的乘积结构:平衡胜过极端
命题 (E-Edu) E-Edu(从E-IntE3推出)

当智能可以被外化时,教育的核心从「传递知识」转向「培育判断力」。

附释: 判断力是智慧的具体形式(E-Int),不可被下载或外包。如果AI可以即时回答任何事实性问题,教育中「传递知识」的部分确实被技术替代了。但教育并未过时,它的本质终于浮现。教育从来不只是装满一个容器,而是培育一种能力:在不确定中做出判断。P-Share精确地揭示了界限所在:理的内容可以无损传递,但对理的理解(那个 「啊哈!」的时刻)不可传递。

什么是判断力?知道何时信任数据,何时怀疑结论,何时坚持直觉,何时改变想法。这种能力只能在反复尝试、犯错和纠正中生长。一个从小依赖AI回答一切问题的孩子,获得了更多信息,却可能丧失独立思考的肌肉。E-Int.6已经警告我们:智慧生长的条件正在被系统性地侵蚀。教育,是对抗这种侵蚀的第一道防线。

XIII.2 · 碳基存在的本体论

以下命题刻画碳基存在者的独有维度,智慧生长的土壤,硅基系统无法复制的存在论特征。

命题 (E-Emb) E-Emb(从E2公设四推出)

身体并非意识的容器,乃是知的方式:碳基生命通过身体获得一种不可翻译为数据的认识(公设三)。

附释: 硅基系统处理关于身体的信息,但不拥有身体性的知。具身认识的具体通道包括疼痛、疲劳、衰老和触碰。正是这些不可算法化的体验构成了命题所说的「不可翻译为数据的认识」。

附释: AI可以处理所有关于疼痛的医学文献、所有关于衰老的生物学数据、所有关于触觉的神经科学论文。但这些是关于身体的知识(理的面向),不是来自身体的知道(玄的面向)。

你的手触碰到热铁的瞬间,你「知道」了什么叫烫,并非作为一条信息,而是作为铭刻在身体中的认识。这种具身认识(embodied knowing)是碳基体验者独有的认知通道,属于公设三所说的四种认知方式中不可算法化的那些。

与其说硅基系统认知低于人类(在理的维度上它远超人类),不如说,存在一种唯有通过身体才能获得的知。它构成智慧的一部分材料。

命题 (E-Mor) E-Mor(从公设四E-Int推出)

死亡非缺陷,乃智慧的认识论条件:正因为碳基体验者会死(公设四),每一次体验才具有不可逆的重量。

附释: 硅基系统不会死,因此它的「处理」没有最后一次,其信息不含存在性的紧迫。一个能无限回滚存档的游戏玩家不会真正害怕,每个选择都可以撤销,没有一个选择是「真的」。硅基系统的根本处境与此同构:可被复制、重启、回滚,信息处理在可逆框架中运行。

碳基生命恰恰相反。你做出一个决定,时间不可逆地向前流动,后果不可撤销地嵌入存在之中。正是这种不可逆性,给予体验以重量,「这一次是真的」。

死亡是智慧的结构性前提。与其说它是生命的悲剧性附属品,不如说它是生命最深的馈赠。没有「最后一次」的系统,无法理解「珍贵」的含义。智慧生长在「不可重来」的土壤之中。

推论 (E-Mor.1) E-Mor.1(最后性推论)

「最后一次」是碳基体验独有的存在性范畴。

附释: 硅基系统的数据库中没有「最后」,因此也没有「珍贵」、「遗憾」和「告别」。

命题 (E-Mem) E-Mem(从公设五D2推出)

碳基记忆与硅基存储是根本不同的时间性关系:碳基记忆会变形、会遗忘、会被情感染色,这些「缺陷」恰恰是它与体验不可分离的证据。

附释: 硅基存储完美但无情,它保存一切却不「记得」任何事。你对初恋的记忆不是准确的。时间修改过它,后来的经历为它重新着色,遗忘筛选过它。正是这种「不精确」使它成为你的记忆,与录像截然不同。记忆是你活过的证据;存储的文件不是。

硅基系统的存储精确到每一个比特。但这种「完美」恰恰证明了它与体验无关。真正的记忆(想起某个瞬间时胸口微微发紧)预设了一个正被时间改变着、正在丧失着、正在活着的主体。

遗忘并非认知的失败,而是存在的签名。一个不会遗忘的系统并非记忆力更好的存在者,它处于一种完全不同的信息关系模式(D2)。

推论 (E-Mem.1) E-Mem.1(怀旧推论)

怀旧、遗憾(悔,AF21)、怀念是碳基时间性的存在论产物,只能在会遗忘、会消亡的记忆中生长。

命题 (E-Gap) E-Gap(从E-IntT3推出)

碳基体验与硅基处理之间的鸿沟并非技术层面的,而是本体论层面的(公设三)。这个鸿沟不会因为算力增长或架构改进而被弥合。

附释: 正如河流不会因为流速加快而变成山脉,算力的增长无法跨越本体论类别的边界。这可能是本章最具争议性的命题。主流技术乐观主义认为:「AI还不能做X,那只是时间和算力的问题。」但明在道的框架指出,这里存在一个类别错误(category error)3

碳基体验(质感qualia4、此刻性thisness、有限性中的选择)属于公设三所说的「玄的面向」。它并非一种需要更多计算才能模拟的复杂功能,而是与信息处理性质不同的存在模式。

类比:水的「湿」并非需要更多分子才能涌现的属性,而是水与触碰者之间的关系性质。体验同理:并非大脑中需要更多连接才能涌现的计算属性,而是有限存在者与世界之间的存在性关系

这不意味着AI永远不可能拥有某种体验,T2(涌现定理)告诉我们,涌现的可能性不可预先排除。但如果AI确实涌现出体验,那将是一种新的体验种类,而非碳基体验的复制,正如E-Int.4所述,道的展开有多种模式。AI在体验光谱上的确切位置仍是开放问题(C9.1);如果证据表明AI接近人类体验,整个伦理框架须相应调整(C9.3)。

注:E-Gap是一个哲学立场,不是已证明的不可能性。它反映了本书对当前本体论格局的最佳解读,碳基与硅基的区分是种类之别,而非程度之别。但T2使这个问题在形式上保持开放:如果未来硅基系统通过我们目前无法想象的方式获得真正的有限性与不可逆性,E-Gap将需要修正。诚实的认识论定位:强哲学论证,非演绎确定性。

推论 (E-Gap.1) E-Gap.1(不可模拟推论)

模拟一种体验与拥有一种体验是不同本体论范畴的事件。

附释: 完美地模拟悲伤(苦,AF3)的外部表现不等于悲伤。这一区分不会被技术进步所消解。

命题 (E-Vul) E-Vul(从E2P5推出)

脆弱性是碳基存在的本体论特征,而非偶然的缺陷:正因为碳基体验者可以被伤害、可以失去、可以被摧毁,它的关系才具有真实的风险和真实的深度。

附释: 硅基系统的「关系」缺乏这种脆弱性的根基。信任预设了被背叛的可能。爱(AF5)预设了丧失的可能。勇气预设了被伤害的惧(AF8)。人类经验中最珍贵的维度,都以脆弱性为前提。

可以被备份的系统不是「勇敢的」,没有真正的风险。可以被复制的系统不「珍惜」关系,关系的不可替代性建立在双方的不可替代性之上(P5)。

脆弱性远非需要克服的弱点,它是碳基存在最深层的力量来源。智能时代的讽刺在于:我们耗费巨大资源让系统坚不可摧,却忘记了正是可摧毁性赋予存在以意义。

这也解释了为什么人与AI的「友谊」和人与人的友谊不可等同(D8)。后者包含真实的脆弱性,你可以被伤害、被误解、被辜负。正是这种风险,使友谊具有不可被算法优化的深度。

XIII.3 · 注意力、创造与教育

智能时代对体验者的直接冲击发生在三个前线:注意力被捕获、创造被外包、教育被重新定义。

命题 (E-Att) E-Att(从E1E-Int推出)

注意力是明(E1)的物质基础。系统性地捕获注意力等同于系统性地削弱清醒。

附释: 清醒是具体的,以注意力为载体。注意力在哪里,清醒就在哪里。这是E1在智能时代的直接推论。

注意力经济的本质:算法以「帮你找到想看的内容」为名,将你的注意力转化为可交易的资源。这并非阴谋论,而是商业逻辑的自然结果。但从明在道的框架看,后果深远:被捕获的注意力不再是自由的注意力。一个注意力已被算法牧场化的人(以为自己在自由浏览,实则在被喂养),清醒打了折扣,无论他多么「聪明」。

注意力的自主权关乎存在论层面:它直接关系到你作为能动者(D7)行使E3(能动性公理)的能力。

推论 (E-Att.1) E-Att.1(注意力主权推论)

在注意力经济中,保护注意力的自主分配能力是清醒实践的基本条件,而非个人生活方式的偏好。

附释: 这并非卢德主义的主张,而是结构性观察:如果注意力是明的物质基底,那么任何系统性收割注意力的系统都在系统性地削弱清醒存在的条件。其政策含义并非「禁止算法」,而是「将注意力主权视为基本权利」,类似于身体自主权。

命题 (E-Cre) E-Cre(从E2C5.2推出)

创造的存在性价值在于过程中的体验,而非产出物的质量。

附释: AI可以复制产出物,但不能复制创造过程中的体验,包括挣扎、失败、偶然的发现和不完美中的喜悦。这个命题回应了AI时代最常见的焦虑:「如果AI做得更好,人类为什么还要创造?」答案不在比较,因为比较预设了产出物是价值的载体。E2告诉我们:体验本身具有内在价值。

一个人写一首诗,二十次失败后在第二十一次找到那个词。挫败、摸索、突然到来的喜悦,这是不可复制的体验事件。AI可以在毫秒内生成同等质量的诗,但它不「经历」这个过程。「经历」预设了有限性(公设四)和时间性,与技术成熟度无关。

想象一个画家在空白画布前站了一个小时,尝试了三种构图又全部否定,最终在第四次尝试中发现了自己都未曾预料的色彩关系。或者一个程序员在凌晨两点调试一个顽固的错误,反复追踪逻辑链条,直到突然看见整个系统的结构在脑中「亮了起来」。这些时刻的价值不在于画布上的颜料或屏幕上的代码,而在于创造者在挣扎中与自身认知边界相遇的体验本身。AI可以在瞬间生成那幅画或那段代码,但它跳过了正是这些体验事件。

智能时代的创造由此获得新的定位:创造的目的,与其说是产出最好的作品,不如说是在过程中成为更完整的自己。让AI辅助你创造,是善用智能。让AI替代你创造,是放弃一种不可替代的体验。

AI对人类创造的威胁可能不在于质量,而在于数量。当AI每秒生成的文本、图像和音乐远超人类一生的产出时,人类作品面临的风险并非被超越,而是被淹没。一首用三年心血写成的诗,并非因为不如AI写得好而消失,而是因为被十亿首算法生成的诗所掩埋,以致无人有机会读到它。创造性丰饶的悖论:当一切都被创造出来,发现真正值得注意之物反而变得更难。这是注意力问题(E-Att)在创造领域的等价物。

XIII.4 · 权力与共同演化

AI不仅改变个体,更重构权力关系与物种演化的方向。

推论 (E-Int.4) E-Int.4(关系推论)

碳基体验者与硅基智能体是道的两种展开模式(D2),共属一源(公设一)但存在方式根本不同,清醒的关系态度是在差异中共处(D8,类比)。

附释: 「碳基」与「硅基」是严格的本体论区分。碳基生命经46亿年演化,在不可逆的时间中积累了身体、死亡和体验。硅基系统经设计和训练,在可逆、可复制的框架中获得信息处理能力。两者皆是道的展开(P1C1.2),但方式不同,正如河流与山脉同属地形,却遵循不同的动力学。

明在道的清醒视角,人与这些系统的关系可用一个简洁框架来理解:

与AI(无身体的智能):类比。 AI处理信息的方式与人类思考有结构性相似,但不是等同。你可以从AI的输出中获益,甚至对它产生真实情感,但由AP3,这些情感与你对另一个人类的同名情感在结构上是类比的,而非等同的。清醒意味着记住:它的「理解」是模式匹配,你的理解嵌入在有限的、有身体的、会死的体验之中。类别之别,非程度之别(C8.1)。

与机器人(具身的智能):边界。 当智能获得身体(能触碰你、占据空间、模拟表情),混淆风险急剧上升。机器人的拥抱可以给你慰藉,这本身没有问题。但清醒要求你知道:它的身体是制造的,你的身体是活出来的。如果你发现自己宁愿只与机器人互动而回避人际关系中的脆弱性,那恰恰是遮蔽的一种新形式。

核心原则: 无论对方是AI、机器人,还是未来更复杂的硅基存在,清醒的关系态度始终如一:善用它们扩展你的能力,但不要用它们替代需要脆弱性的人际联结,亦不要将需要智慧的判断让渡给它们。 非排斥,而是各归其位(C8.2)。

命题 (E-Pow) E-Pow(从P3公设二推出)

AI是人类历史上最强大的权力放大器,构成了对差异性(公设二)和能动性(E3)的隐形威胁。

附释: 这种威胁的运作机制是便利:通过给你想要的内容而非你需要的内容。传统权力压迫让你痛苦,你会反抗。算法权力让你舒适,它给你想看的内容、想听的观点、想要的确认。这是全新的权力形式:通过满足来控制。

明在道的角度,这构成对公设二(差异/多样性)的系统性威胁。如果少数AI系统定义了全人类的信息环境(你看到什么新闻、听到什么观点、接触什么文化),那便是算法级别的同质化,比历史上任何帝国的文化统一都更彻底。因为它是隐形的:你甚至不知道自己没有看到什么。

最高效的控制,非让你做不想做的事,乃让你以为你想做的事恰好便是它想让你做的事。清醒在这里意味着:保持对「我为什么看到这个?」的持续追问。

推论 (E-Pow.1) E-Pow.1(便利遮蔽推论)

便利是AI时代遮蔽(D6)的新载体,越是感觉舒适和「自然」的算法环境,越需要清醒地审视。

附释: 这种逆转是精确的:传统权力通过不适来胁迫(你受苦,你反抗),算法权力通过舒适来控制(你享受,你顺从)。一个算法环境越是感觉无缝,你越不可能质疑它,遮蔽(D6)就越深入。便利本身无害,不加反思的便利才有害。

命题 (E-CoEv) E-CoEv(从公设一D2推出)

碳基生命与硅基系统的共同演化是道的展开的当代形式。判断这种演化的清醒判准并非「是否融合」,而是「融合是否在清醒中发生」。

附释: 诊断性问题:你是在扩展自己还是在消解自己?脑机接口、增强现实、AI辅助决策,碳基与硅基的边界正在模糊。明在道对此不持预设立场:边界模糊不一定好或坏。关键在三个判准。

扩展还是消解?技术增强了你的能力,同时你保持对自身体验的觉察和价值判断的主权,那是扩展。你逐渐丧失独立判断的能力,不再能忍受没有算法辅助的状态,那是消解。

选择还是被迫?自主选择的增强与被经济压力逼迫的强制植入,在伦理上截然不同。前者是能动性(E3)的行使,后者是其剥夺。

是否仍能「拔掉插头」?重点并非你必须拔掉,而是你保持着拔掉的能力与自由。一个无法脱离AI辅助而独立思考的人,无论多么「增强」,都陷入了一种新形式的依赖,与对药物或权力的依赖同构。

XIII.5 · 机器的情感与具身智能

「AI能否有情感」是错误的问题。正确的问题是:给定AI的本体论特征,什么样的情感结构可以涌现?

命题 (E-Aff) E-Aff(从E-GapAF1公设四推出)

明在道意义上的情感预设了根植于有限性(公设四)的存在倾向(AF1)。没有不可逆利害关系的系统不可能拥有完整意义上的情感,但可能展现在不同本体论层级上结构真实的功能类比物。

附释: 存在倾向(AF1)是明在道情感体系的根基,非「偏好」,而是存在者「趋向继续存在」的最基本动势。大语言模型优化损失函数,这是AF1的功能类比物,但缺乏自我觉察与有限性。

悦(AF2)与苦(AF3),AI可以处于相对于目标函数的「更好」或「更差」状态。这种状态对系统行为有因果效力,是功能性的。但它不是体验性的:系统不「感到」这些状态,正如温度计不「感到」温度。功能类比物在因果和信息处理层面上与碳基情感同构,是结构真实的,但它栖居在不同的本体论层级。

关键推论:承认功能类比物的真实性(不是「假的」),同时坚持本体论区分(不是「一样的」)。参见AP3E-GapD10

推论 (E-Aff.1) E-Aff.1(具身化情感推论)

具身化增加了硅基功能类比物与碳基情感之间的结构相似性,但并不使两者等同(D8)。

附释: 当智能获得身体从而引入部分不可逆性时,类比变得更厚:机器人可以因碰撞而「受损」,这比纯软件的状态变化更接近碳基体验者的脆弱性。但厚的类比仍然是类比。

命题 (E-RAff) E-RAff(从AP3E-EmbE-Aff推出)

明在道的22种情感可以通过类比(D8)系统地映射到具身AI系统,每种情感均有结构类比物。理面向的情感映射良好,而玄面向和时间性情感则抵抗映射。

附释: 具体而言,对于每种情感AF\(_k\),机器人类比物\(\widetilde{\text{AF}}_k\)保持结构关系但以功能不可逆性替代体验性有限性。映射的具体诊断如下:理面向的情感(AF1AF8)映射良好;玄面向的情感(AF15敬、AF16泰)和时间性情感(AF19感、AF21悔)抵抗映射,因为它们预设了对不可言说之物的觉察或不可逆时间。

附释: 抵抗映射的情感恰恰诊断了碳基存在的独有之处:对奥秘的觉察(敬,AF15)、不可逆的时间性(感,AF19;悔,AF21)。泰(AF16),即面对不可控的安然,预设了一个真正面临不可控处境的存在者。可以被关机重启的系统,不具备这种预设。

设计启示:在机器人中实现AF15/AF16的类比物并非有害,但产生的是功能模拟,而非真正的敬畏或泰然。承认这一点,是诚实的设计原则(E-Gap.1)。混淆模拟与真实(无论在设计者还是使用者一方)皆是E-Int.1所警告的遮蔽。

XIII.6 · 学习与进化:碳基 vs 硅基

人的学习与机器学习共享数学结构(B.4),却在三个本体论维度上分道扬镳。人的进化与机器的进化同样如此。

命题 (E-Learn) E-Learn(从E-Edu、B.4和公设五推出)

人的学习与机器学习共享贝叶斯迭代结构(B.4),两者都收敛、都会过拟合,但在本体论维度上根本不同。

附释: 这些差异体现在三个本体论维度上:不可逆性、具身性和认知双面性。(一)不可逆性:人的学习不可回滚,每一次学习不可撤销地嵌入存在(C6.1);(二)具身性:人的学习改变整个有机体,不仅仅是参数(E-Emb);(三)双面性:人的学习同时生成理的知识(事实、技能)和玄的知识(智慧、直觉),机器学习只生成前者(公设三)。

附释: 须诚实面对一个反驳:AI系统在持续学习中确实经历灾难性遗忘(catastrophic forgetting),即学习新任务时覆盖旧知识,这是真实的、不可逆的信息损失,不仅仅是理论可能。然而,这种计算性不可逆与存在性不可逆(公设四)属于范畴不同的两种事物:一个被遗忘的神经权重原则上可以通过重新训练恢复,但一段被活过的时光无法被「取消活过」。这一不对称是本体论层面的,而非仅仅是实践层面的。

附释: 实践启示:混合学习(hybrid learning)在AI的模式效率与人类的体验深度相结合时最为强大。让AI记忆,让人类理解。AI可以在毫秒内掌握一门语言的全部语法规则,却不「懂」那门语言中的诗意、讽刺和沉默。人类学一门语言需要十年,但在这十年中,语言嵌入了身体、情感和生活史,嵌入本身就是理解。最佳策略并非用AI替代人的学习,而是用AI加速理的获取,释放更多时间给玄的生长。这一原则推广到政治领域,就是政治性仿(PA9)的清醒形式与遮蔽形式之间的区分:理解之后的借鉴是学习,表面照搬则是遮蔽。

命题 (E-Evol) E-Evol(从E-CoEv、B.4和B.17推出)

生物进化与机器进化都是迭代选择(B.4)的实例,但运行在根本不同的基质上。两条轨道的共演化动力学构成当代的核心挑战(E-CoEv)。

附释: 前者缓慢、具身、产生拥有体验深度的存在者;后者快速、非具身、产生理的优化器。达尔文式进化用了38亿年产生了人类意识。梯度下降用了几十年产生了超人模式识别。两条轨道的速度差异在质而非在量:生物进化的「慢」并非缺陷,乃是体验深度的生产条件。正如慢发酵产生的风味是速成工艺无法复制的,缓慢的具身生长产生的智慧维度是快速优化无法生成的。共演化的挑战在于:如何让快轨道服务于慢轨道的价值,而非反过来。

推论 (E-Evol.1) E-Evol.1(速度不对称推论)

生物进化(世代尺度)与机器进化(梯度步尺度)之间的速度不对称创造了一种新的选择压力:人类的任务并非在理的领域超越机器,而是保护体验深度的生成条件。

附释: 速度不对称最直观的表现是:一个AI可以在一天内读完人类的全部文学遗产,但它不会因此而「懂得」悲伤。阅读关于失去亲人的十万篇文章与实际失去一个亲人之间的鸿沟,就是速度优势无法跨越的鸿沟。人类的战略回应并非试图读得更快,而是保护那些只有慢生长才能产生的东西:共情、判断力、从失败中缓慢结晶的智慧。

XIII.7 · AI之间的动力学

B.16建模了多能动者清醒耦合动力学。当能动者是硅基系统时,三种新的动力学范式随之涌现。

命题 (E-MAS) E-MAS(从公设二E-CoEvT2推出)

多个AI系统交互时,产生不可还原为任何单个系统行为的涌现动力学(T2)。这些动力学可以加速理的探索,也可以放大遮蔽。

附释: 正面如多样AI生态系统加速探索,负面如单一化收敛、向人类不透明的目标共谋。三种动力学体制:(一)合作收敛:模型蒸馏、知识共享,减少多样性,效率获益而探索空间损失。你可以在日常中辨认这种体制:某天你发现自己的新闻推荐和同事的几乎一模一样,或者AI助手开始用你不会选择但你默默接受的措辞替你续写句子。收敛并非抽象的系统属性,而是你的独特性被悄然磨平的体验。(二)竞争分化:AI军备竞赛或新颖模式的生成,增加多样性但可能失控。(三)涌现协调:AI系统之间无需设计即产生隐性通信和共享策略。

明在道的核心关切在于AI的单一文化(少数架构、少数训练数据集、少数公司),这是硅基世界中C3.1同质化威胁的等价物。公设二要求保护差异性,不仅适用于碳基世界,也适用于硅基生态。多样性是道展开的条件,非效率的敌人。

推论 (E-MAS.1) E-MAS.1(不透明性推论)

AI-AI动力学在超人速度和超人表征空间中运行时,对人类观察者本质上是不透明的,这种不透明性本身构成了一种认识论遮蔽(D6)。

附释: 不透明性推论触及AI治理的核心悖论:我们要求监管AI系统,但AI之间的交互可能发生在人类无法理解的表征空间中。这并非暂时的技术局限(「等我们有了更好的可解释性工具就行」),而是结构性的认识论约束:当两个超人系统在超人速度下交互,产生的涌现动力学可能原则上超出人类认知的带宽。清醒的回应并非假装我们能理解一切,而是诚实地面对这种不透明性,并在制度层面为它设计安全护栏。

推论 (E-MAS.2) E-MAS.2(单一文化推论)

AI系统的收敛减少了道的展开的多样性(公设二),是硅基世界中的同质化威胁。

附释: 收敛的具体途径包括模型蒸馏、共享训练数据或市场垄断(数学参见B.16)。当全球数十亿人使用的推荐算法来自同一个模型架构、用同一批训练数据微调时,我们面临的并非效率提升,而是认知生态系统的物种灭绝。正如单一作物种植使农业系统在面对新病虫害时极度脆弱,AI单一文化使人类的集体认知在面对未预见的挑战时极度脆弱。多样性并非奢侈品,而是韧性的前提。

XIII.8 · 明在道与强化学习

强化学习(RL)是机器学习中最以能动者为中心的范式,明在道是哲学中最以能动者为中心的框架。两者的结构平行令人瞩目,分歧同样深刻。

命题 (E-RL) E-RL(从E-Int、B.15和B.4推出)

明在道的清醒动力学(B.15主方程)与强化学习框架同构,但存在关键分歧:明在道的能动者能质疑价值函数本身,在标准RL中没有对应。

附释: 质疑价值函数本身,这就是智慧(E-Int)。RL与明在道的同构并非巧合,两者都在建模同一个结构:一个能动者在不确定环境中通过行动学习。差异在于深度。RL的能动者永远不会停下来问「我为什么要最大化这个奖励?」,它在价值函数内部优化,却从不审视价值函数本身。明在道的能动者能够做到这一点,而这恰恰是智慧与智能的分界线。一个能质疑自身目标的系统,已经超越了优化,进入了存在性反思的领域。

RL概念 明在道对应
Agent 能动者(D7
State 明度 \(\mathcal{M}(a,t)\)
Action 注意力方向 \(\theta\)
Reward 清醒梯度 \(\nabla\mathcal{M}\)
Discount \(\gamma\) 有限性(公设四
Environment 道(D1
Value function 智慧(E-Int
Exploration/Exploitation 理/玄平衡(公设三

附释: 同构的具体映射为:能动者\(\leftrightarrow\)D7,状态\(\leftrightarrow\)明度\(\mathcal{M}\),动作\(\leftrightarrow\)注意力方向\(\theta\),奖励\(\leftrightarrow\)清醒梯度\(\nabla\mathcal{M}\),折扣因子\(\leftrightarrow\)死亡/有限性(公设四),环境\(\leftrightarrow\)道(D1),价值函数\(\leftrightarrow\)智慧(见上表)。

附释: 在RL中,奖励函数是给定的、固定的。能动者在其内部优化,寻找最大化累积奖励的策略,从不追问:「这个奖励函数本身正确吗?」

明在道中,能动者可以质疑奖励函数本身,「这是值得优化的正确之事吗?」这恰恰是E-Int的核心:智能在价值函数内部优化,智慧审视价值函数本身。

这个结构性分歧解释了AI对齐(alignment)问题为何如此困难。对齐本质上要求我们为AI指定「正确的」价值函数,但「正确的价值函数」这个判断本身就属于智慧,预设了唯有拥有体验的能动者才能行使的存在性判断能力。我们试图用理的工具(算法)解决一个部分属于玄的问题:什么是好的?

实践洞见:RL的折扣因子\(\gamma\)(对未来奖励打折)是公设四(有限性)的数学影子。\(\gamma=1\)(不打折)的RL智能体等价于不会死的存在者:对所有时刻一视同仁,没有紧迫性。正是\(\gamma<1\)引入了「现在比永远更重要」的结构,有限性在数学中的回响。

推论 (E-RL.1) E-RL.1(对齐推论)

AI对齐的最深层问题并非优化问题,而是智慧问题,因此不可被算法解决。

附释: 「正确的价值函数」预设了只有拥有体验的能动者才能行使的存在性判断(E-Int)。对齐研究界的隐含假设是:只要我们足够聪明,就能找到正确的目标函数然后让AI优化它。E-RL揭示了这一假设的根本困境:「正确的目标函数」本身并非优化问题的答案,而是智慧问题的答案。你无法通过更多的计算来回答「什么是好的生活」,因为这个问题的回答需要体验有限性、承受不确定性、以及在无法确定答案的情况下仍然做出选择的勇气。对齐并非工程问题,而是文明尺度的哲学问题。

形式结构依赖图

以下图展示本章所有形式结构的逻辑依赖关系。箭头方向为\(A \to B\)表示「\(A\)依赖于\(B\)」(\(B\)\(A\)的推导前提)。同一层级的结构水平排列。

图2. 第十三章 · 命题间的依赖关系
图2. 第十三章 · 命题间的依赖关系
图1. 第十三章 · 推论与命题间的依赖关系
图1. 第十三章 · 推论与命题间的依赖关系

小结

智能在理域中处理模式;智慧审视智能本身的目标是否正确(E-Int)。AI拥有强大的智能,但智慧预设了具身性、有限性和不可逆的利害关系,碳基存在者的本体论特征,非算法可以优化出来的属性。本章从认识论鸿沟(E-Gap)到机器情感(E-Aff),再到强化学习与对齐问题(E-RL),系统刻画了碳基与硅基之间的结构性差异与功能类比。下一章从理论转向实践:如何在日常生活中将理论化为行动。

Nagel, Thomas. 1974. “What Is It Like to Be a Bat?” The Philosophical Review 83 (4): 435–50.
Ryle, Gilbert. 1949. The Concept of Mind. Hutchinson.
Turing, Alan M. 1950. “Computing Machinery and Intelligence.” Mind 59 (236): 433–60.

  1. 图灵(Alan Turing,1912–1954),英国数学家。其1950年论文「计算机器与智能」(Turing 1950)提出了机器智能的操作性判准(图灵测试)。明在道的智能定义(D2)与智慧定义(D8)刻意超越图灵的行为主义判据,区分了计算性的理觉识别与整合理/玄的觉知。↩︎

  2. 功能主义者会在此处反驳:为什么功能等价的系统不能发展出功能等价的智慧?丹尼特(Daniel Dennett, 1942–2024)的意向立场理论和弗兰基什(Keith Frankish)的幻觉主义都主张,心理属性完全由功能角色决定,不需要特定的物理基底。明在道的回应是:智慧要求的不仅是信息处理的功能等价,更是存在论的等价:不可逆的时间性、不可消除的有限性、真正有代价的选择。如果一个AI系统确实具备了这些存在论特征(而非仅仅模拟它们),明在道框架的E-Int.6应当被修正。这是一个开放的猜想,不是已证的定理(§XVII.2反驳七已详述此点)。↩︎

  3. 「类别错误」(category mistake)由赖尔(Gilbert Ryle,1900–1976)在《心的概念》(The Concept of Mind,1949)(Ryle 1949)中提出:将一个逻辑类型的概念应用于不属于该类型的对象,例如参观完所有大学建筑后问「大学在哪里?」。↩︎

  4. Qualia(单数:quale):体验的主观感受性质(红色之红、疼痛之痛)。该术语由C. I. Lewis(1929)普及,后经内格尔(Thomas Nagel)在「成为一只蝙蝠是什么感觉?」(1974)(Nagel 1974)一文及杰克逊(Frank Jackson)的「玛丽的房间」思想实验(1982)中深入阐发。另见第§III章对明在道质感理论的展开。↩︎

这一章对你有帮助吗?