“也许我们把问题复杂化了。”她突然开口,“生命不是可以量化的变量,公平比最优解更重要。”
陈默转动座钟,钟摆再次开始摆动:“1842年,海难幸存者为了活命,杀死并吃掉了船上的侍者。这个案子后来确立了普通法的一个原则:即使在极端困境下,也不能剥夺无辜者的生命。”
林夏在白板上写下第一行字:禁止基于年龄、性别、种族、职业的优先级设定。张弛补充道:“还要加上社会地位,不能因为对方是名人就特殊对待。”
数据分析师突然笑了:“那如果是一头鹿和一个人呢?系统总得选吧。”
“生命优先于财产,人类优先于动物。”林夏的笔在白板上划出清晰的线条,“这是底线。”
座钟的滴答声与键盘敲击声渐渐合拍,窗外的晨曦爬上联合国大厦的玻璃幕墙,在地板上投下流动的光斑。
三、透明的算法
第一次公众听证会在日内瓦的国际会议中心举行。林夏站在发言席上,看着台下密密麻麻的人群,突然想起母亲总说的那句话:看得见的天平才让人信服。
“我们的决策框架有三个核心原则。”她按下遥控器,大屏幕上出现醒目的文字:
1. 生命优先于财产,多数人优先于少数人;
2. 禁止基于年龄、性别、种族等的歧视性设定;
3. 决策逻辑全程可追溯,接受公众监督。
后排突然传来骚动,一个穿红色外套的女人站起来:“去年在伦敦,我的丈夫被自动驾驶卡车撞死了。系统说这是最优解,但我们永远不知道那个‘最优’是怎么算出来的!”
会场顿时安静下来。林夏看向大屏幕上的模拟动画:当事故不可避免时,系统会显示决策依据,包括距离、速度、人数等参数,像法官的判决书一样条理清晰。
“我们开发了‘伦理黑匣子’。”陈默接过话筒,“就像飞机的黑匣子记录飞行数据,它会记录每次伦理决策的全过程,包括传感器数据、算法判断、执行指令。这些数据会加密存储,只在调查时由独立委员会解密。”
穿红色外套的女人擦干眼泪:“那如果算法错了呢?谁来负责?”
张弛翻开厚厚的文件:“我们建议建立‘自动驾驶伦理保险基金’,由车企、软件公司、监管机构共同出资。当系统出现伦理决策失误时,基金将先行赔付,再根据调查结果追究责任。”
听证会持续了六个小时,质疑声从未停歇。有人担心算法会被黑客篡改,有人害怕企业会暗中修改决策逻辑,还有人提出更根本的问题:人类凭什么把生死抉择交给机器?
“这不是交给机器,而是给机器设定规则。”林夏的声音透过麦克风传遍会场,“就像交通法规告诉我们红灯停绿灯行,这些规则是人类共同制定的道德底线。”
散会时,那位穿红色外套的女人走到林夏面前,递来一张照片:她的丈夫抱着孩子在公园里笑。“我丈夫是AI工程师,他总说技术应该让人更安全,而不是更危险。”
林夏把照片轻轻按在胸口,突然想起测试场那个雨夜。当系统选择撞向隔离带时,不是因为它计算出驾驶员的生命更廉价,而是因为它必须遵守一个简单的规则:保护更多的人。
四、流动的边界
框架最终通过那天,联盟办公室的每个人都收到了一份特殊的礼物:陈默的座钟复刻品。林夏把它放在办公桌最显眼的位置,钟摆的滴答声成了办公室的背景音。
“但这不是终点。”陈默在庆祝酒会上说,“技术在变,伦理边界也在变。也许有一天,当自动驾驶汽车普及后,我们会发现今天的框架需要修改。”
林夏看着窗外的车水马龙,突然想起儿子画的那幅画:未来的城市里,自动驾驶汽车像鱼群一样有序流动,没有红绿灯,没有交通事故。画的角落写着一行字:机器人也有良心吗?
“良心或许没有,但规则可以有。”她给儿子发了条信息,附上刚通过的《智能驾驶伦理决策框架》封面。很快收到回复:妈妈,你们是不是给机器人编了一本《三字经》?
会议室的白板上,新的议题已经列了出来:当自动驾驶汽车遇到自杀者时该怎么办?如果对方是恐怖分子呢?当所有车辆都是自动驾驶时,“多数人优先”是否还适用?
座钟的滴答声里,林夏仿佛听见无数个未来在叩门。那些尚未发生的伦理困境,就像测试场里不断变换的变量组合,等待着人类用智慧和勇气去解答。
雨又开始下了,落在联合国大厦的玻璃幕墙上,划出一道道晶莹的水痕。林夏想起框架里最让她骄傲的一条:当伦理决策存在争议时,系统应选择最接近人类普遍道德直觉的方案。
因为最好的技术,终究要像人类一样思考——不是计算利弊的机器,而是懂得犹豫、懂得共情、懂得在复杂世界里寻找微光的生命。
座钟的钟摆还在左右摇晃,像一架永不停歇的天平,在代码与人性之间,寻找着微妙的平衡。