第三部 · 社会尺度 · 我们该如何共处?
X · 社会与政治原则
~14 分钟 · 5,248 字
X · 社会与政治原则
§VIII讲的是个人实践,你一个人怎么保持清醒。但清醒不在真空中发生。算法操纵你的注意力,信息环境遭到系统性扭曲,在这样的条件下,个体再怎么努力也难以清醒。为什么需要政治哲学?因为清醒的条件本身是社会性的(T5,社会清醒定理)。一个人的清醒需要制度来守护。本章从伦理命题推出五条政治原则,分析原则间的张力,诊断AI时代的权力结构,并提出五个具体的政治议题。这些是评判制度的标准,而非政策建议。明在道不与任何政党或政治运动结盟。
X.1 · 五条政治原则
前三条直接由明在道伦理推出,是根基原则。后两条从前三条派生,是制度性原则。更深层的公理化基础,如何从三个不可归约的本体论事实一路推导出权力、正义、自由与民主,见第§X章(政治哲学)。
附释: 原始表述中「一个存在者的价值不可归约为其功用」与「存在本身先于并独立于任何功能性评估」是同一论断的两种说法。合并后的表述保留了两层含义:优先性(先于)与独立性(不可归约),以单句呈现。
在AI时代,「功用思维」将吞噬一切,你有用吗?能被优化吗?能被替代吗?面对这一切,明在道的第一个政治姿态是拒绝让功用成为衡量存在的唯一尺度1。一个人的价值不在于他能产出什么。一首诗的价值不在于信息量,一次日落的价值不在于光谱数据。存在本身即是价值。但这不意味着功用不重要,只是功用不能独占「重要」二字。
制度推论: 尊重每个人存在价值(而非仅仅尊重其生产力)的制度是好的。当AI造成大规模技术性失业,社会有义务确保失业者在物质上得到保障,在尊严上得到尊重。衡量一个社会的伦理质量,看它如何对待「无用」之人足矣。
道的丰富性在于展开方式的多样。消除差异,让一切同质化,是对道的贫化(C3.1)。AI正在让文本风格趋同,让决策逻辑标准化,让所有人接收同样的信息。面对这一切,明在道说:保护差异。关键限定: 「差异即善」保护的是善的差异,即认知方式、文化传统、生活方式的多样性,而非苦难的差异。「贫富差距是道的丰富性」:这是对此原则的扭曲(C3.3)。
制度推论: 保护社会多样性的制度是好的,强制同质化的制度是坏的。政治制度应当守护一个空间,让不同的生活方式、思维方式和文化传统得以共存,包括对AI的不同态度(C3.2)。
能够清醒地理解自身处境的存在,对自己的清醒负有责任。遮蔽(无论源于恐惧(AF8)、懒惰、自欺(傲,AF12),还是他人的操控)是明在道伦理中最接近「恶」的概念。AI时代最大的伦理危险并非AI变恶,而在于人类自愿放弃清醒。从情感论看,这种放弃往往以依(AF14)的形式出现:对AI的便利产生失去方向性的固着。重要澄清: 明在道绝非不行动的借口。清醒地行动与清醒地不行动,都是明的体现。逃避行动非无为,无为是行动中不执着。
制度推论: 促进公民清醒判断的制度是好的,制造遮蔽的制度是坏的。AI系统的决策过程应当可理解;公民有权知道AI如何影响自己的生活;信息生态应当促进(而非阻碍)清醒的判断。
附释: 过度集中的权力是遮蔽的温床:当权力不受制约,它倾向于制造和维持遮蔽(D6),这正是本原则的因果根据。
过度集中的权力(无论在政府、公司还是AI系统中)都是遮蔽(D6)的温床。权力需要制衡与分散。对最强大AI系统的控制,不应掌握在少数人手中。
人类判断的不可替代性。关于人类命运的重大判断不可委托给没有体验的系统。
附释: 政治判断属于实践智慧的领域(公设三认识论推论),因而不可算法化。这一归属正是本原则禁止将重大判断委托给无体验系统的理据。
关于人类命运的重大决策(战争与和平、基本权利的界定、资源的根本分配)不应委托给AI(E-Int.5)。AI可以提供信息与分析,但最终的政治判断必须由人做出。政治判断属于实践智慧的领域(公设三认识论推论),不可算法化。
形式结构依赖图
以下是本章五条政治原则的逻辑依赖关系。箭头方向为\(A \to B\)表示「\(A\)依赖于\(B\)」(\(B\)是\(A\)的推导前提)。灰色虚框为外部前提。
X.2 · 原则间的张力:案例分析
纯原则层面的论述对政治问题往往缺乏说服力。以下案例展示明在道政治原则如何在真实困境中落地,尤其是原则彼此冲突时,如何权衡。
案例一:AI在刑事司法中的应用
一个AI系统在预测累犯率方面比人类法官更准确,但其训练数据包含历史性的种族偏见。
从明道的框架分析:透明原则要求系统可理解(训练数据和决策逻辑必须公开。尊严原则要求不把人仅仅视为统计概率)一个人不等于他的「累犯风险评分」。多样性原则警惕算法将历史偏见固化为系统性歧视。人类判断原则则要求最终量刑由人做出。
但张力随之浮现:如果人类法官的偏见比AI更严重呢?研究表明,法官深受疲劳、情绪和隐性偏见的影响2。在这种情况下,「人类判断的不可替代性」是否仍然成立?
明在道的回答并非简单的「是」或「否」,而是:实践智慧的领域非「人类永远比AI做得更好」的领域,乃是「必须有人为决策承担道德责任」的领域。 AI可以提供更精准的数据分析,但「这个人是否应该被关进监狱」不只是数据问题,它关乎人类如何对待人类。承担道德责任的必须是人,即使他的判断不如AI准确。准确性与道德责任,不在同一个维度上。
案例二:透明原则与安全的冲突
政府国防AI系统若完全透明,可能暴露国家安全信息。企业AI模型若完全透明,可能泄露商业机密。
从明道的框架分析:透明原则不是「一切都必须公开」:那是教条化的应用。透明的目的是促进清醒判断。在安全领域,「对谁透明」「透明到什么程度」需要实践智慧来拿捏。一个可行的框架是分层透明:对公众,公开AI影响其生活的方式和范围;对独立监督机构,公开核心逻辑和潜在风险;对内部审计,公开全部技术细节。非全面透明,亦非全面保密。
案例三:权力分散与国际竞争的张力
如果民主国家分散AI控制权,而威权国家集中AI战略,前者可能在竞争中处于劣势。
从明道的框架分析:这是最棘手的困境之一,因为它触及明道原则的适用边界。权力分散原则是政治共同体内部的原则,它预设参与者共享「清醒比遮蔽更好」这一价值前提。然而在国际博弈中,对手未必共享这个前提。
明在道对此没有简洁的答案(这正是诚实。我们能说的是:(1) 分散不意味着无力)联邦制的美国在二战中击败了集中化的轴心国;(2) 集中化的短期效率优势,往往被长期适应性劣势所抵消,从斯巴达到苏联,历史反复验证了这一点;(3) 承认张力存在,拒绝用「分散总是更好」来回避困境,这本身便是清醒的态度。
X.3 · 权力与清醒
本节补充先前版本中尚不充分的权力分析。
个人清醒的最大障碍,往往非懒惰或恐惧(AF8),而是系统性的权力结构。情感论(§V)为政治分析提供了精确工具:忿(AF20)是对系统性遮蔽的清醒回应:但唯有当忿指向制造遮蔽的结构而非个体时,它才构成政治行动的正当情感基础(AP5)。
注意力经济的权力结构3: 科技公司的商业模式建立在最大化用户注意力之上。每一次推荐算法的优化,都在系统性地制造遮蔽,非因工程师心怀恶意,而因商业激励与清醒的激励方向相反。在这种环境中呼吁「个人清醒」,却不分析驱动遮蔽的权力结构,远远不够。
AI开发的权力集中: 开发最强大AI系统所需的资源(算力、数据、人才)集中在少数公司手中。它们的每一个决策(选择什么训练数据、设定什么安全标准、采取什么部署策略)都在塑造数十亿人的认知环境。这是「遮蔽的温床」最具体的实例。
数据的不对称性: AI公司对用户的了解远超用户对AI的了解。这种信息不对称本身就构成权力关系:它让普通用户几乎无法「清醒地使用AI」。透明原则在这里不仅是政治原则,更是伦理前提。
从个人到结构: 因此,明在道的清醒实践不能止步于个人层面。你所在的组织若在用AI做不道德的事(侵犯隐私、制造歧视、操控注意力)你的清醒要求你发声,而非在个人冥想中寻得安宁,然后对结构性问题视而不见。
在一个系统性制造遮蔽的环境中,个人清醒极其艰难。推动制度层面的透明与公正,不仅是政治行为,也是明在道实践的一部分。理解并对抗制造遮蔽的权力结构,与理解并对抗自身内在的遮蔽倾向,同等重要。悲悯(AF17)和慈(AF18)为政治行动提供了另一维度的情感基础,不只是忿的「反对」,还有悲悯驱动的「创造」:为受遮蔽之害者,创造走向清醒的条件。
X.4 · AI时代的五个政治议题
以下五个议题,是明在道政治原则在AI时代的具体展开。每一个都在提出问题与框架,而非给出政策答案。
一、注意力主权。 算法推荐每天塑形数十亿人看到什么、想什么、相信什么。这是一种前所未有的权力,非审查(屏蔽你看不到的),乃塑形(决定你先看到什么)。在明道看来:你的注意力被谁塑形,直接决定你的清醒程度。 注意力主权(个人对自己注意力分配的知情权和控制权)应当成为一种新型公民权利,与言论自由和隐私权同等重要。一个社会若在法律上保护了言论自由,却在结构上放任算法系统性地操纵注意力,它对清醒的保护便是残缺的(E-Att.1)。
二、后劳动时代的存在意义。 当AI替代了越来越多的工作,「你做什么工作」不再能回答「你是谁」。这不仅是经济问题(收入从哪里来),更是存在问题(意义从哪里来)。明在道的尊严原则(PP1)在此有具体的政治含义:社会不能把人的尊严绑定在经济生产力上。「存在先于功用」不只是哲学命题,它要求制度为人提供经济保障之外的东西:创造的空间、学习的机会、被看见与被尊重的社会位置。技术性失业的真正危险并非贫穷,而在于让人觉得自己多余。
三、数字身份的清醒。 AI基于你的数据构建了一个「你」:消费画像、信用评分、行为预测模型。这个数字自我可能比你更「了解」你的偏好。明在道的警告是:你不等于你的数据画像。 数据画像捕捉的是你「理」的一面(可模式化的行为),却完全遗漏了「玄」的一面(不可还原的主观体验、此刻的独特性、改变的可能)。当保险、信贷、招聘越来越依赖数字画像来「理解」一个人时,一种新型遮蔽正在发生:用模式替代存在,用概率替代个体。
四、认知环境作为公共物品。 空气质量是身体健康的前提,信息环境质量是认知健康的前提。深度伪造、AI生成的虚假信息、情绪化的算法推荐,皆是认知环境的「污染」。在明道看来:健康的信息生态是清醒的社会前提,应当像清洁的空气和水一样被视为公共物品。 正如环保运动推动了物理环境污染的治理,AI时代需要一场「认知环保」运动,非审查内容,乃守护信息生态的多样性、真实性与人类可理解性。E-Pow.1警告我们:便利本身就是AI时代遮蔽的新载体,算法环境越让人感到舒适和 「自然」,越需要清醒地审视。
五、代际认知正义。 我们这一代人做出的AI决策(选择什么训练数据、设计什么推荐算法、塑造什么样的数字教育环境)将定义下一代人的认知土壤。一个在算法推荐中长大的孩子,注意力模式、思维习惯、对不确定性的容忍度,皆在被我们的选择所塑形。这是一种代际责任:我们不仅在为下一代留下经济资产和环境债务,也在留下一种认知环境。 明在道的问题是:这种认知环境培育清醒,还是制造遮蔽?我们是否有义务像保护自然环境一样保护认知环境,非为了自己,乃为了那些尚未出生、无法为自己发声的人?这一问题在第§XIV章获得了形式化论证:CV-IG(代际清醒命题)表明,未来世代的展开条件完全由当前文明的选择决定,构成不可逆的不对称相依。其推论CV-IG.1进一步指出:贬低未来能动者的折现率,本身就是一种时间维度的遮蔽。
小结
本章从公设体系推导出五条政治原则(尊严、透明、清醒即责任、有限主义、自我修正)将个人伦理扩展为集体结构的规范。五个AI时代的政治议题(注意力主权、后劳动意义、数字身份、认知环境、代际正义)展示了这些原则如何具体展开。从个人清醒走向集体清醒,转折至此完成;下一章将这些原则落实为可操作的政治实践。
明在道从形而上学推导政治原则的路径与当代政治哲学的主流形成对比。罗尔斯(John Rawls, 1921–2002)的政治自由主义恰恰回避了形而上学基础:其《政治自由主义》(Political Liberalism, 1993)主张,正义原则应当独立于任何全面性学说(comprehensive doctrine),以便在持有不同形而上学和宗教信念的公民之间达成「重叠共识」。明在道走了相反的方向:它认为政治原则需要本体论基础,因为在AI时代,关于「什么是存在者」「什么是体验」的形而上学问题已成为政治问题。这一分歧的代价是:罗尔斯的路径包容性更广但基础更浅;明在道的路径基础更深但要求接受更多前提。↩︎
丹泽格等人(Danziger, Levav & Avnaim-Pesso)2011年在《美国国家科学院院刊》上发表的研究表明,以色列假释委员会法官在饭后批准假释的概率约为65%,而在下一顿饭前降至接近0%。这一发现引发了广泛讨论:人类判断(哪怕是关于他人自由的最严肃判断)竟受如此「低级」的生理因素左右。这恰恰是明在道坚持「清醒即责任」的原因之一:我们对自身遮蔽来源了解得越深,越能设计出更好的制度来对抗它。↩︎
肖莎娜·祖博夫(Shoshana Zuboff)在《监控资本主义时代》(Zuboff 2019)(The Age of Surveillance Capitalism,2019年)中系统分析了这种权力结构:科技公司不仅收集用户行为数据来预测行为,还通过「行为修正」(behavioral modification)来塑造行为。这并非传统意义上的「操纵」:而是一种新型权力,祖博夫称之为「工具主义权力」(instrumentarian power)。它不通过暴力或意识形态运作,而是通过对行为微妙、持续、自动化的修正。在明在道的框架中,这正是遮蔽的系统性制造。↩︎
这一章对你有帮助吗?