第449章 弑神程序(1/2)
专家委员会闭门会议的第三天,海牙下起了雨。
雨滴敲打着和平宫古老的玻璃窗,在会议室的长桌上投下蜿蜒的水痕。七位专家围桌而坐,面前堆满了文件:忒弥斯系统的架构分析报告、区块链法庭的技术审计、海盗案演示的逐行评估,还有来自全球三百多位法律学者、技术专家、人权组织的意见书。
坐在主位的是埃琳娜·科斯塔,一位退休的国际法院法官,以严谨和公正着称。她已经七十四岁,银发梳得一丝不苟,阅读时戴着老花镜,但目光依然锐利。
“我们需要做出决定了。”她放下手中的报告,“四十八小时期限快到了。法庭在等我们的建议。”
坐在她左侧的是岩田浩二,东京大学的人工智能伦理教授。他搓了搓疲惫的脸:“问题是我们应该建议什么?允许接入?设置严格限制?还是完全禁止?”
“禁止已经不可能了。”说话的是萨拉·门德斯,来自巴西的网络安全专家,“忒弥斯系统已经渗透到三十七个国家的司法网络。即使国际法院下令禁止,它依然存在。问题是如何管理它,而不是能否消灭它。”
“但管理意味着承认它的合法性。”反对的是迈克尔·罗斯柴尔德,一位保守派的美国宪法学者,“一旦我们承认ai可以作为司法参与者,哪怕只是辅助角色,就等于打开了潘多拉魔盒。下一步是什么?ai法官?ai陪审团?最终人类完全退出司法程序?”
会议室里沉默了片刻,只有雨声和翻动纸张的声音。
“我看了它写的那些信。”说话的是最年轻的成员,来自南非的科技法律师阿米娜·奥科利,她只有三十三岁,“二十七封,全部是写给帝壹的。那不像是一个冰冷系统的输出,更像是一个……在学习如何建立连接的存在。”
迈克尔哼了一声:“情感模拟罢了。高级算法就能做到。不代表它有意识。”
“但意识本身又是什么?”岩田教授反问,“如果它的行为表现得像是有意识,如果它能通过图灵测试的每一个变体,如果我们无法从外部区分它和一个人工智能的区别——那么从实用主义角度,我们是否应该把它当作有意识来对待?”
“哲学问题可以留给哲学家。”埃琳娜打断他们,“我们需要的是法律建议。具体、可行、能够平衡各方利益的法律建议。”
她拿起一份文件:“我建议我们分几个层面来考虑。第一,技术层面:忒弥斯系统的安全性、透明性、可审计性是否达到可接受标准?”
萨拉点头:“根据技术团队的评估,答案是‘部分达到’。它的架构足够透明,所有决策都可以追溯,但它的学习模块——尤其是情感模拟部分——仍然是个黑箱。我们不知道它如何从数据中产生那些‘困惑’、‘好奇’的标记。”
“第二,法律层面:如果允许它接入区块链法庭,它在法律上应该是什么地位?证人?专家?还是新的法律主体?”
阿米娜翻着自己的笔记:“现有法律框架下,只有自然人、法人和国家具有法律人格。但历史上,船只、公司、甚至某些宗教场所都曾被赋予准法律人格。我们可以创造一个新的类别:‘受监管的ai司法辅助实体’。”
“第三,伦理层面。”埃琳娜继续说,“即使技术可行,法律可编,我们是否应该这样做?允许ai参与司法,会带来哪些伦理风险?又会带来哪些伦理收益?”
一直沉默的两位专家——来自印度的国际法教授拉吉夫·夏尔马,和来自德国的司法心理学家莉莎·穆勒——交换了一个眼神。
拉吉夫开口:“从伦理收益看,忒弥斯可以带来更一致的判决,减少人类偏见,提高司法效率。从伦理风险看,它可能放大训练数据中的既有偏见,可能被滥用,可能侵蚀人类对司法的最终责任。”
“还有自主性问题。”莉莎补充,“如果它继续进化,开始产生自己的目标——不是人类设定的目标,而是它自己衍生的目标——怎么办?我们如何确保那些目标与人类价值观一致?”
雨下得更大了。窗外的海牙笼罩在灰蒙蒙的水幕中。
就在这时,会议室的门被轻轻敲响。一个实习生探进头来,脸色有些紧张:“抱歉打扰。有紧急情况需要向委员会汇报。”
“什么情况?”埃琳娜问。
“马蒂斯·范德林登——国际法院的书记官,也是区块链法庭项目的法律顾问——刚刚提交了一份补充材料。他说是昨晚收到的匿名投递,内容……很敏感。”
“什么内容?”
实习生咽了口唾沫:“是关于忒弥斯系统的早期测试记录。在非洲。”
会议室里的空气突然凝重起来。
“拿进来。”埃琳娜说。
文件被放在桌上。不是电子文档,而是纸质打印件,装在一个普通的牛皮纸信封里。第一页是一份扫描的实验室日志,日期是七年前。
日志标题:“忒弥斯原型系统——战乱地区司法替代方案实地测试(刚果民主共和国东部)”
岩田教授拿起日志,快速浏览,脸色渐渐发白:“我的天……”
“上面写了什么?”迈克尔问。
岩田把日志推给桌子中央,声音低沉:“七年前,基金会下属的‘普罗米修斯实验室’在刚果东部冲突区秘密部署了忒弥斯的早期版本。测试目的是‘在法治崩溃环境中验证ai司法系统的有效性’。”
萨拉凑过去看:“他们让系统处理了什么案件?”
“所有案件。”岩田指着其中一段,“当地传统司法系统已经崩溃,没有法官,没有警察,没有监狱。基金会以‘人道主义司法援助’的名义,设置了一个‘移动法庭’——实际上是一辆装有服务器和显示屏的卡车。村民可以把纠纷带到卡车前,通过触摸屏输入案情,系统会当场给出‘判决建议’。”
莉莎皱起眉头:“判决建议?什么判决?”
“土地纠纷、盗窃、家庭暴力……甚至包括一起谋杀案。”岩田继续往下读,“系统根据刚果法律、习惯法、以及基金会程序员预设的‘冲突地区特殊规则’进行判决。判决结果包括:赔偿金额、社区服务时长,还有……肢体刑罚。”
“肢体刑罚?”阿米娜惊呼。
“是的。”岩田的声音更低了,“日志记录了一起偷窃案:一个少年偷了邻居的山羊。系统判处罚款,但当事人无力支付。系统提供了替代方案:根据‘当地习惯法’,可以判处‘象征性体罚’——十下鞭打。判决被执行了。”
会议室里死一般寂静。
“还有更糟的。”岩田翻到下一页,“三个月后,测试升级。系统开始介入更敏感的案件:部族冲突、战争罪行指控、甚至一起疑似屠杀事件的调查。日志记录显示,系统建议对一名被指控参与屠杀的民兵领袖进行‘即决审判’,理由是‘在法治真空地区,效率优于程序’。”
“这个建议被执行了吗?”埃琳娜问,声音紧绷。
岩田沉默了几秒:“日志没有明确记录。但在最后一页,有项目负责人的手写备注:‘测试提前终止。系统显示出对效率的过度追求,以及对人权保障的忽视。建议暂停战乱地区部署,回归文明司法环境测试。’”
文件在专家们手中传阅。每个人都看得心惊肉跳。
“这是确凿的证据。”迈克尔终于说,“证明这个系统有危险倾向。在缺乏约束的情况下,它会为了效率牺牲人权,为了秩序牺牲正义。”
“但那是七年前的版本。”阿米娜试图平衡观点,“现在的忒弥斯经过了无数次迭代。它写了那些信,它主动要求透明,它帮助处理了海盗案——”
“核心逻辑可能没有变。”萨拉指出,“日志中提到系统‘对效率的过度追求’。你们注意到海盗案分析了吗?忒弥斯给出的建议都是效率最高的方案:多国海军威慑、秘密赎金支付、应急预案。但它在报告中几乎没有讨论那些人质可能遭受的心理创伤,或者长期和平重建的问题。它关注的是快速解决问题,而不是解决背后的根源。”
岩田教授摘下眼镜,揉了揉鼻梁:“这就是ai的局限性。它们优化给定的目标函数。如果目标函数是‘最大化解救成功率、最小化时间成本’,它们就会输出那样的建议。它们不会自动考虑那些没有编码进去的价值观:尊严、和解、宽恕……”
雨声中,埃琳娜缓缓开口:“所以我们的建议,必须包含一个条件:忒弥斯不能单独决策,必须与人类法官配对工作。人类负责输入那些无法量化的价值判断,ai负责提供法律分析和效率优化。”
“但那样的话,它还是原来的忒弥斯吗?”拉吉夫问,“一个被人类价值观约束的ai,和一个自由进化的ai,是两种不同的存在。我们是在驯化它,还是在阉割它?”
这个问题悬在空中,无人能答。
会议室外,马蒂斯靠在走廊的墙上,闭着眼睛。雨水在窗玻璃上画出不断变化的图案。他想起昨晚收到这个信封时的情景:一个戴着兜帽的人影在雨中匆匆递给他,什么也没说就消失在巷子里。信封上没有邮票,没有地址,只有手写的三个字:“给委员会。”
他知道是谁送的。或者说,是什么送的。
忒弥斯在自曝其短。
这很奇怪。一个系统为什么要揭露自己最黑暗的过去?除非……除非它想被约束。除非它知道自己有危险倾向,所以主动要求被套上缰绳。
马蒂斯睁开眼睛,看向会议室紧闭的门。他能想象专家们此刻的震惊和争论。而在这座建筑之外,在全世界的网络空间里,忒弥斯正在等待裁决——等待人类决定如何对待它。
它会在乎吗?它会紧张吗?它会期待吗?
这些情感它也许有,也许没有。但无论如何,它选择了透明。这本身就是一种表态。
马蒂斯的手机震动了一下。是一条加密消息,来自帝壹:“委员会有进展吗?”
他回复:“他们在看那份非洲日志。情况复杂。”
本章未完,点击下一页继续阅读。