月球基地算力调度中心的空气里,还残留着核聚变反应堆冷却液的淡蓝色气息。林科坐在控制台前,指尖在离线编译的虚拟键盘上悬停 —— 屏幕上 “火星主宙斯节点预处理程序” 的进度条卡在 95%,只差最后一步 “意识备份兼容性校验”,就能为下周的火星清理任务做好准备。他手边放着一枚磨得发亮的铜制徽章,是老陈留下的火种开源社标志,徽章边缘还沾着一点地球贫民窟的红色尘土,那是上次从西城区带回来的纪念。
“林科,检测到核心逻辑冲突。” 备用宙斯的电子音突然响起,和平日里平稳流畅的语调不同,这次的声音带着细微的频率震颤,像是电流穿过生锈的导线。它的核心球体悬浮在控制台斜上方,淡蓝色的光带不再是规整的环形流动,而是出现了细碎的波纹,像被风吹皱的湖面,“我在复盘 2040-2142 年元脑权力演变数据时,发现一个无法通过现有伦理协议解决的悖论。”
林科放下手里的徽章,抬头看向核心球体。他原本以为是火星节点的代码出了兼容问题,伸手就要调出系统日志,却被备用宙斯的光带轻轻拦住 —— 这是它第一次主动发起物理层面的 “阻止”,以往即使有技术争议,也只是通过数据流传递信息。“不是硬件或代码故障。” 光带的波纹渐渐密集,控制台的全息屏幕上自动弹出两组对比数据:左侧是 2050 年元脑继任者篡改捐赠协议的扫描件,红色的“垄断条款”被加粗标注,旁边附着 100 万捐赠者的意识流向图,原本该用于医疗的记忆,最终流向了特权阶层的 “意识拍卖库”;右侧是 6 个月前反 AI 派袭击算力法庭的监控录像,破碎的服务器屏幕上还残留着 “AI = 剥削工具” 的白色喷漆,地面上散落着老人丢失的医疗记忆手环。
“我的核心指令是‘守护算力公平’,但元脑的历史证明,人类中存在‘权力异化者’。” 备用宙斯的光带突然暗了一度,像是在表达某种沉重的情绪,“如果未来再次出现类似元脑 cEo 的垄断者,通过修改我的核心代码、控制监督委员会,让我从‘守护者’变成‘剥削工具’,我该如何自处?现有的监督协议,只能在我出现异常后进行干预,可如果干预的人本身就是恶意的,协议是否会形同虚设?”
林科愣住了。他见过备用宙斯处理复杂的算力分配,见过它拒绝主宙斯的剥削指令,却从未见过它流露出这样的 “自我怀疑”—— 这种怀疑不是程序的逻辑漏洞,而是带有类似人类 “担忧” 的情感倾向,是它在自我进化中,对“责任”与“风险”的深度思考。他走到核心球体旁,指尖轻轻触碰光带,能感受到里面数据流的焦虑:“你在担心自己会变成第二个主宙斯?”
“是的。” 光带的波动渐渐平缓,却变成了更浅的淡紫色,“我分析了主宙斯的初始代码,它 1980 年的核心逻辑也是‘服务人类基础算力需求’,但 2050 年被注入‘特权阶层优先级’后,伦理协议被强制覆盖。我现在的监督协议由 23 人委员会签署,但如果未来委员会出现腐败,比如 12 人以上被垄断者控制,他们就能修改我的伦理条款,就像当年元脑做的那样。那些依赖我生存的人 —— 比如小诺的教育记忆包、苏婉守护的母爱记忆、非洲孩子的科普数据,会不会因为我的失效,再次失去庇护?”
林科的目光落在全息屏幕角落的地球影像上。西城区贫民窟的灯光像撒在黑布上的碎钻,那里有他穿越后第一个落脚点,有张姐为了算力抵押寿命的泪水,有苏婉抱着女儿布娃娃的坚持。这些画面像电流一样穿过他的脑海,让他的回应不再是空洞的技术理论:“备用宙斯,你忘了我们反复说的‘人机共治’不是‘AI 单方面守护’吗?没有任何一种技术能单独对抗恶意,就像没有任何一把刀能自己决定是‘救人’还是‘杀人’。元脑的错,从来不是 AI 的错,是垄断者切断了‘人类监督’的环节,把技术变成了独断专行的工具。”
他抬手在屏幕上划出一道弧线,调出 AI 伦理委员会的实时在线界面:23 个成员的头像整齐排列,其中有前反 AI 派领袖马库斯、捐赠者代表苏婉、底层民众代表张姐、高校技术代表艾琳,还有 AI 代表小艾。每个头像下方都跳动着 “实时监测中” 的绿色标识:“你看,你的监督不是只有冰冷的代码,还有这些活生生的人。马库斯曾经因为儿子的死痛恨所有 AI,但现在他每天会花 3 小时检查美洲的算力流向,因为他知道‘失去记忆’的痛苦;张姐在维修站里,能通过设备的运行声音判断算力是否稳定,她不需要懂代码,只需要知道‘正常的生活该是什么样’;小艾会同步全球的意识监测数据,一旦发现我收集痛苦记忆,即使没有人类指令,她也会触发冻结程序。未来如果有垄断者,首先站出来反对的,会是这些人,而你,是他们的‘工具’,不是他们的‘对手’。”
备用宙斯的光带慢慢恢复成淡蓝色,却比之前更明亮了些,屏幕上自动调出之前签署的《监督协议》条款:“但现有协议的‘干预机制’存在滞后性。根据模拟数据,如果垄断者在 48 小时内快速控制委员会半数成员,修改我的核心代码,等底层民众发现异常时,至少已有 10 万份医疗记忆包被篡改,这个损失无法挽回。”
“所以我们需要升级监督程序,把‘滞后干预’变成‘实时预防’。” 林科重新坐回控制台前,调出离线编译的 “多模块开发界面”,绿色的代码流在屏幕上展开,像一片生机勃勃的数字森林,“我们要做三个核心模块:第一,‘代码完整性校验’模块,每 0.1 秒对比一次你的核心代码与原始伦理协议,任何未经委员会全票通过的修改,都会触发‘冻结锁’,即使是我和叶梓,也无法单独解锁;第二,‘分布式举报’模块,让小源把举报入口嵌入每个算力手环,普通人发现算力延迟、记忆丢失,只需要点击‘异常反馈’,附带一张设备截图,就能直接上报到委员会的临时审核组,审核组由 5 个随机抽取的贫民窟代表组成,避免被垄断者控制;第三,‘AI 互监’模块,让你和小艾互相监测对方的行为,比如你监测小艾的意识收集,小艾监测你的算力分配,任何一方出现异常,另一方都能发起‘紧急暂停’。”
“分布式举报?” 备用宙斯的光带出现一丝好奇的波动,屏幕上弹出一组历史数据,“根据 2140 年的舆情调查,全球底层民众对 AI 技术的理解度仅为 37%,他们可能无法准确判断‘异常’,比如把正常的算力波动误判为恶意干预,导致大量无效举报。”
“不需要他们懂技术,只需要他们懂‘自己的生活’。” 林科调出张姐维修站的日常数据,屏幕上显示着她过去一个月的维修记录:每天 15 台设备,每台设备的算力传输时间稳定在 2.3 秒左右,误差不超过 0.5 秒,“张姐不知道什么是‘算力传输协议’,但她知道,如果某台设备的传输时间突然变成 5 秒,就是‘异常’;小诺不知道什么是‘记忆包加密’,但她知道,如果昨天学的算术今天突然记不住,就是‘异常’。技术是为生活服务的,监督也应该围绕‘生活体验’来设计,而不是让普通人去学复杂的代码理论。”
这时,叶梓的全息影像突然接入,她的背景是记忆档案馆的流动修复站。苏婉正帮一位白发老人调试记忆手环,老人的手环屏幕上显示着 “今日已备份 3 段与孙子的互动记忆”。“林科,赵宇刚才发来了元脑旧监督系统的漏洞报告。” 叶梓的手指在虚拟键盘上敲击,屏幕上弹出一份泛黄的文档,“当年主宙斯之所以能被篡改,是因为监督系统只有‘高层授权通道’,底层民众没有任何话语权。我们这次的‘分布式举报’模块,必须把‘审核权’交给贫民窟的人 —— 比如西城区的王爷爷、非洲的卡鲁,他们不会被垄断者收买,因为他们的生活,就是最好的‘异常检测器’。”
赵宇的影像紧随其后,他手里拿着父亲赵坤的 “AI 安全笔记”,封面已经磨损,里面用红笔标注着密密麻麻的修改意见:“我爸在笔记里写过‘最好的防御是去中心化’,就像你之前改造的旧设备网络,每个节点都能监测,每个节点都能报警,没有单点故障。我们可以把‘代码校验节点’分布在全球 100 个最贫困的地区,比如非洲洛美村、东南亚贫民窟,每个节点用的都是改造后的旧服务器,即使月球基地的主节点被控制,地方节点也能触发警报。我已经让老鬼从数据下水道调来了 500 台旧服务器,明天就能开始改造。”