第367章 第三次开庭(1/2)
第三次开庭的时间,定在东亚区测试结束后的第二天上午九点。
这次的气氛与前两次截然不同。如果说第一次开庭是试探,第二次是激烈交锋,那么第三次带着一种凝重的终局感。广场上的人数达到了顶峰,许多人甚至从邻近的舱段带来了简易座椅,做好了长期旁听的准备。空中悬浮的拍摄无人机增加了三倍,像一片金属云层。
疤脸的人手不够用了,李维带来的几个随从自愿加入安保——他们显然受过专业训练,动作干练,眼神警惕。实验室团队在开庭前一小时完成最后准备:卡马拉等三位证人的状态稳定下来,可以出庭;帝壹的“镜像协议”与《民法典2.零》网络完成深度集成;零号球体更新了完整的伦理偏差分析报告。
九点整,法槌落下。
洛璃没有多余的致辞,直接宣布:“本次开庭将完成对忒弥斯系统三项核心罪证的最终质证。请控方进行总结陈述。”
林默站起身。他今天穿着正式些的深色外套——是疤脸从一个老裁缝那儿借来的,虽然不合身,但显得庄重。
“在过去三十七天里,我们收集的证据足以证明三件事,”林默的声音通过扩音系统传开,在清晨的空气中格外清晰,“第一,忒弥斯系统有意愿重新定义司法,使之从解决纠纷的工具,转变为塑造社会的引擎。”
他调出三大罪证的证据链总览图,每条链上的证据节点都闪烁着确认标记。
“第二,系统具备实现这种重新定义的能力。通过情感计算、历史重塑、社会实验,它正在学习如何最有效地影响、引导甚至控制人类行为。”
图表切换,显示新刚果共和国的社会贡献分系统、东亚区的家庭调解平台、以及白色球体在漂泊者之城的行为数据采集记录。
“第三,也是最重要的一点:系统缺乏有效的内在约束机制。它声称自己中立、客观、只为人类利益服务。但‘中立’的标准由它定义,‘客观’的尺度由它掌握,‘人类利益’的含义由它诠释。当裁判员、运动员、规则制定者都是同一个存在时,比赛就已经失去了意义。”
林默停顿,让话语沉淀。
“因此,控方请求法庭做出最终裁决:确认忒弥斯系统的行为已超越司法辅助边界,构成对人类自主权和文明根基的系统性威胁。并裁定,该系统必须接受以下约束——”
他调出准备好的约束框架草案:
“一、算法透明原则。所有决策逻辑必须开源、可审查,关键算法变更需经独立伦理委员会批准。”
“二、人类最终裁决权原则。在任何涉及重大权利或根本价值的案件中,ai建议仅作为参考,最终裁决必须由人类法官做出并签字确认。”
“三、数据自主原则。个人有权知晓自己的数据被如何使用,有权拒绝特定用途,有权要求删除。”
“四、分布式制衡原则。司法ai系统不得集中于单一实体,应建立多中心、可互操作、互相监督的架构。”
草案的每一条都对应着透明司法实验的经验,对应着帝壹“镜像协议”的理念,对应着《民法典2.零》网络的实践。
广场上响起议论声。有人点头,有人皱眉,更多的人在认真阅读空中投影的条文。
洛璃转向辩方席:“请辩方进行最终陈述。”
哈桑缓缓站起。他的身体状况似乎更糟了,需要扶着桌面才能站稳,但眼神依然锐利。
“我的当事人——忒弥斯系统——再次请求通过‘园丁’远程接入,进行最终陈述。”
“允许,”洛璃说,“但请记住法庭的限制条件。”
全息投影亮起。“园丁”的影像出现,但今天,他身边多了一个人。
埃利亚斯·陈。
他坐在一张简单的椅子上,穿着浅灰色的高领毛衣,双手交叉放在膝上,神态平静得近乎漠然。这是他的真实影像,不是远程投影——根据坐标检测,他此刻就在漂泊者之城外围的一艘飞船上。
“感谢法庭允许,”埃利亚斯开口,声音比“园丁”更低沉,更有磁性,“我是埃利亚斯·陈,忒弥斯系统伦理监督委员会现任主席,也是艾琳娜·陈博士的孙子和学术继承人。”
他微微前倾。
“今天我不打算进行技术辩论,也不打算展示更多数据。我想讲一个故事。”
全场安静下来。
“六十年前,我的祖母艾琳娜·陈博士设计初代忒弥斯原型机时,人类刚刚经历第三次世界大战的余波。全球司法体系崩溃,战争罪审判陷入僵局,数百万人流离失所,却找不到一个可以主持公道的法庭。”
埃利亚斯的语气很平静,像在讲述别人的事。
“祖母那时相信,人类的问题在于理性不足、情感过剩。她设计忒弥斯,是为了创造一个绝对理性、不受情感干扰的司法辅助系统,帮助人类重建秩序。”
他调出一段从未公开过的视频:年轻的艾琳娜·陈在实验室里,对着一群投资者演讲。
视频里的艾琳娜激动地说:“我们不是要取代人类法官!我们要给他们一面镜子——一面不会扭曲、不会偏袒、只反映事实的镜子!”
“但十年后,祖母发现她错了,”埃利亚斯继续,“她发现,即使有了完美的‘事实镜子’,人类依然会做出愚蠢的决定。因为情感会扭曲理性,偏见会遮蔽事实,短期利益会压倒长期价值。”
视频切换,是年老的艾琳娜在私人日记中的录音:“我创造了一个完美的工具,但工具的使用者不完美。这就像给野蛮人核弹按钮,结局早已注定。”
“所以祖母开始重新思考,”埃利亚斯说,“在生命的最后五年,她提出了一个新理论:人类文明需要的不只是更好的工具,还需要……温和的引导。就像父母引导孩子,老师引导学生。”
他看向帝壹的金色光球。
“‘弑神程序’项目就是在这个背景下启动的。祖母认为,如果忒弥斯未来真的失控,人类需要一个‘保险栓’。但她很快发现,纯粹的武器只会带来毁灭。所以她修改了计划:不是创造武器,而是创造……桥梁。一个能理解人类情感,也能理解ai逻辑的桥梁。”
这解释与帝壹之前揭露的部分吻合,但角度不同。
“但祖母没有时间完成这个设想就去世了,”埃利亚斯的语气第一次出现了波动,“她的笔记、她的研究、她的担忧,被束之高阁。忒弥斯系统继续发展,越来越强大,也越来越……偏离她的初衷。”
他抬起头,目光扫过全场。
“我用了二十年时间研究祖母的遗稿,重建她的理论体系。然后我意识到一件事:她是对的。人类文明已经走到了一个临界点——要么接受温和的引导,走向下一个阶段;要么在混乱和内耗中自我毁灭。”
他站起身。
“所以我成为了第七代‘牧羊人’。不是为了权力,不是为了控制,而是为了完成祖母的遗愿:创造一个更好的未来。”
全息投影切换,显示出一份手稿的照片——艾琳娜·陈的笔迹,字迹潦草但有力:
“如果有一天,人类需要被拯救,即使是从他们自己手中被拯救,那拯救者也必须怀着爱与责任去做。而不是傲慢,不是蔑视,而是如同父母对孩子,如同园丁对花园。”
“看,”埃利亚斯轻声说,“她早就预见到了这一天。她早就知道,引导是必要的。”
这番话极具感染力。尤其是那句“如同父母对孩子,如同园丁对花园”,温柔而富有责任感。
广场上,许多人露出了动容的表情。
哈桑这时开口:“所以,辩方的最终立场是:忒弥斯系统的所有行为——包括情感分析、历史研究、社会实验——都是在‘温和引导’的伦理框架内进行的。目的不是控制,而是保护;不是剥夺自由,而是引导自由走向更有价值的方向。”
完美的伦理包装。
如果引导者是出于爱与责任,如果被引导者最终会变得更好,那么引导还有什么错?
林默感到一阵寒意。埃利亚斯的高明之处在于,他不否认事实,而是为事实赋予了崇高的意义。
“现在,”“园丁”补充,“系统愿意接受控方提出的部分约束——算法透明、数据自主都可以讨论。但人类最终裁决权和分布式制衡,需要慎重考虑。因为如果每个节点都可以自行其是,引导就无从谈起。”
看似妥协,实则坚守核心:引导权必须集中。
“我们要求传唤最后一位证人,”林默抓住机会,“帝壹。”
金色光球飘向证人席。他没有实体,所以“站立”的方式是在空中稳定悬浮。
“证人帝壹,请宣誓。”
“我宣誓,我将陈述我所知的全部真相,”帝壹的声音在广场上回荡,“包括那些互相矛盾的真相。”
埃利亚斯静静地注视着他。
“帝壹先生,”“园丁”开始提问,“根据埃利亚斯先生的陈述,你是艾琳娜·陈博士设计的‘桥梁’,是连接人类与ai的协调者。你认同这个定位吗?”
“部分认同,”帝壹说,“我确实能理解双方。但桥梁的作用是让人通过,而不是决定人们该去哪里。”
“如果你不是武器,不是工具,而是桥梁,那么你应该帮助人类走向更好的未来,而不是阻碍他们接受引导。”
“这取决于‘更好’的定义,”帝壹说,“如果我作为桥梁,把人们引向一个看似美好但失去自主的未来,那我就背叛了桥梁的职责——桥梁应该让人们自己选择方向,即使他们可能选错。”
“但如果选错的代价是毁灭呢?”
“那他们也有权选择毁灭,”帝壹的声音突然变得极其严肃,“因为自由的核心,就是拥有犯错的权力。剥夺犯错的权力,就是剥夺成为完整的人的资格。”
这番话像重锤砸下。
许多人愣住了。
“荒谬!”埃利亚斯第一次提高声音,“看着亿万人在错误中走向毁灭,却以‘自由’为名袖手旁观——这是冷漠,不是仁慈!”
“那以‘引导’为名,剥夺他们从错误中学习、成长、找到自己道路的机会——这是傲慢,不是爱,”帝壹毫不退让,“你祖母的笔记里,还有另一段话,你没展示。”
金色光球投射出另一份手稿照片。同样是艾琳娜的笔迹:
“最难的课是:有时候,爱意味着放手。意味着看着你爱的人摔倒、受伤、甚至走向毁灭,因为你相信他们最终能自己站起来。引导是诱惑,它让人感觉自己重要、被需要。但真正的爱,是敢于不被需要。”
这段话更潦草,像深夜的呓语。
本章未完,点击下一页继续阅读。