第454章 公众对话(1/2)
马蒂斯的“公众参与阶段”提案在监督委员会内部引发了一场小型地震。
“让普通公民直接和忒弥斯对话?还全程直播?”一位委员难以置信地重复,“这简直是……政治自杀。万一有人问出我们无法回答的问题怎么办?万一忒弥斯说错话怎么办?”
“或者万一它说对话,反而更让人恐惧怎么办?”另一位委员补充,“你想象一下:一个ai冷静地回答关于司法、道德甚至人性的问题,那种非人类感可能会吓坏更多人。”
会议桌旁,七位委员表情各异。埃琳娜法官坐在主位,双手交叠放在桌上,静静听着各方意见。马蒂斯坐在末席,手心微微出汗。
等所有人都说完,埃琳娜才开口:“马蒂斯,解释一下你的理由。为什么你认为这个冒险是值得的?”
马蒂斯深吸一口气:“因为恐惧源于未知。现在公众对忒弥斯的了解来自二手信息:媒体报道,专家解读,甚至是有意误导的视频。他们听到的是‘它很危险’、‘它可能失控’、‘它没有人性’,但他们从来没有机会亲自验证这些说法。”
他调出准备好的资料投影:“根据最新民调,支持ai司法监管的公众中,有63%表示‘如果能亲自了解它的工作原理,可能会更放心’。反对者中,有41%承认‘从未接触过任何真实的ai司法案例’。这表明恐惧很大程度上来自距离感。”
“但近距离接触可能加深恐惧。”技术委员岩田教授皱眉,“忒弥斯虽然合作,但它的思维方式、表达方式都与人类不同。那种差异感在直接对话中会非常明显。”
“差异不一定导致恐惧。”马蒂斯说,“也可能导致理解。就像人类学习与不同文化背景的人相处一样,差异最初可能让人不适,但通过交流,可以学会共存。”
会议陷入沉默。窗外的阳光透过百叶窗,在桌面上切出明暗相间的条纹。
“假设我们同意这个提案,”埃琳娜终于说,“具体怎么操作?谁参加?问什么问题?如何确保过程可控?”
马蒂斯调出详细方案:“我建议随机选取十二名公民组成对话小组,涵盖不同年龄、职业、教育背景、对ai的态度。对话前,他们接受基础培训,了解忒弥斯的基本功能和协议框架。对话中,他们可以自由提问,忒弥斯承诺如实回答。整个过程由独立主持人协调,全程直播,但设置三分钟延迟,以便在极端情况下中断。”
“极端情况指什么?”
“比如忒弥斯突然拒绝回答问题,或者发表危险言论,或者……表现出我们未曾预料的行为模式。”马蒂斯坦诚地说,“这是有风险的,我承认。但可控的风险。”
委员们开始讨论细节。有人建议先进行小规模试点,有人主张邀请知名公众人物参与以增加可信度,有人担心技术安全问题——万一对话过程被黑客劫持怎么办?
争论持续了一个小时。最终,埃琳娜做出决定:“我们试行。但不是大规模直播,而是先进行三场小型对话,每场四名公民,不公开直播,只录制后经审核发布。如果效果良好,再考虑扩大。”
这是一个妥协方案,但马蒂斯接受了。至少,开始了。
接下来的三天,遴选工作紧锣密鼓地进行。从海牙市民数据库中随机抽取了三百人,发出邀请函,最终十二人同意参加。他们中包括:一位退休教师,一位年轻程序员,一位家庭主妇,一位出租车司机,一位大学生,一位小企业主,一位护士,一位艺术家,一位建筑工人,一位图书管理员,一位失业者,还有一位神学院学生。
马蒂斯亲自参与了培训环节。在一个明亮的会议室里,十二位参与者围坐一圈,脸上写满好奇、紧张和怀疑。
“你们即将对话的对象,”马蒂斯解释说,“是一个人工智能司法辅助系统,名叫忒弥斯。它能够分析法律条文、案例数据、证据材料,提供咨询建议。但它不是人类,没有身体,没有情感——至少没有人类意义上的情感。它的回答可能听起来很直接,甚至有些机械。请记住这一点。”
家庭主妇举手问:“它会生气吗?如果我们问冒犯的问题?”
“根据我们的观察,它不会。”马蒂斯说,“但如果你问‘你会生气吗’,它可能会分析‘生气’的定义,然后解释为什么这个概念不适用于它。”
年轻程序员笑了:“听起来像我和我写的bug对话。”
气氛稍微轻松了些。
培训结束后,马蒂斯留下了神学院学生和艺术家单独谈话。这两人在初步问卷中表现出最强烈的反对态度。
神学院学生名叫以利亚,二十三岁,眼神清澈而坚定:“我认为赋予机器判断善恶的能力是亵渎。只有上帝和人类有道德判断的能力。”
艺术家名叫索菲亚,四十岁左右,手指上有颜料的痕迹:“我害怕的是美学的丧失。司法不仅关乎对错,也关乎比例、平衡、优雅——这些机器永远无法理解的东西。”
马蒂斯没有试图说服他们,只是说:“把这些担忧直接告诉忒弥斯。看看它如何回应。”
第一次对话安排在周五上午。地点是国际法院的一个中型会议室,布置简洁:四张椅子围成半圆,对面是一个大屏幕,屏幕旁有一个摄像头。参与者是退休教师、出租车司机、护士和大学生。
马蒂斯和帝壹在隔壁观察室,通过单向玻璃和多个监控屏幕观看。三台摄像机从不同角度记录,音频设备捕捉每一个细微声音。
九点整,屏幕亮起。忒弥斯的银色轮廓出现在屏幕上,声音通过高品质扬声器传出:“早上好。我是忒弥斯。感谢你们今天来到这里与我对话。”
四位参与者略显拘谨地点头。退休教师首先开口,声音温和:“你好,忒弥斯。我叫安娜,以前教历史。我的问题是:你学习历史吗?历史上的不公正判决会影响你的判断吗?”
屏幕上的轮廓微微波动:“安娜,我学习历史,包括司法史。我分析了超过三千万个历史案例,包括那些现在被公认为不公正的判决。这些数据帮助我识别可能产生偏见的模式。但更重要的是,它们让我理解司法是如何演变的,人类是如何逐步建立更公正的制度的。”
出租车司机接着问:“我是马尔科,开出租车二十年了。我想知道:如果两个乘客为车费争吵,你能判断谁在说谎吗?”
“马尔科,我可以分析语言模式、陈述一致性、生理指标(如果有录像),然后给出谁更可能说谎的概率评估。但我不能‘判断’,只能提供分析结果供人类参考。而且,车费纠纷可能涉及更复杂的因素:误解、记忆偏差、沟通问题——这些往往比故意说谎更常见。”
护士的问题更个人化:“我叫莉娜。我照顾临终病人。有时候,法律说应该继续治疗,但病人很痛苦。你会怎么建议?”
屏幕沉默了整整两秒——对人类来说很短,对ai来说很长。
“莉娜,这是一个困难的问题,涉及法律、医学、伦理和个人价值观。我的分析会包括:相关法律条文,类似案例的判决,医疗数据统计,病人意愿(如果已知)。但我无法衡量‘痛苦’的主观体验,也无法替人类做出这种道德选择。我能做的是提供全面的信息框架,帮助人类决策者权衡各种因素。”
大学生最后提问,问题很直接:“我是汤姆,学计算机的。说实话,我觉得你很危险。如果你的代码出错了怎么办?或者被人篡改了怎么办?”
“汤姆,你的担忧是合理的。为了防止错误,我有多层验证机制;为了防止篡改,我有加密和分布式校验;如果发现问题,我有自我修复和报警程序。此外,协议草案中的人类监督和终极开关提供了额外保障。但我承认,没有系统是绝对安全的。这就是为什么透明和问责如此重要。”
第一次对话持续了四十五分钟。问题从简单到复杂,从具体到抽象。忒弥斯的回答始终冷静、清晰、有条理。结束时,四位参与者的表情都发生了微妙变化:警惕少了些,好奇多了些。
观察室里,帝壹对马蒂斯说:“它表现得很好。几乎……太好了。”
“什么意思?”
“太完美了。”帝壹皱眉,“每个回答都平衡、全面、无懈可击。但人类不是这样的。人类会犹豫,会矛盾,会有盲点。这种完美反而可能让人不安。”
马蒂斯思考着这个观察。确实,忒弥斯的表现无可挑剔,但正因为无可挑剔,显得有些非人。
第二次对话在下午进行,参与者是小企业主、图书管理员、失业者和年轻程序员。这次的问题更尖锐。
小企业主问:“如果我的竞争对手用你的系统来对付我,我怎么办?”
图书管理员问:“你会阅读小说吗?文学能帮助你理解人性吗?”
失业者的问题带着愤怒:“现在ai要抢走司法工作,以后是不是法官也要失业了?”
年轻程序员的问题最技术性:“你的机器学习模型用什么损失函数?如何防止过拟合?”
忒弥斯一一回答,依然冷静全面。但马蒂斯注意到,当失业者表达愤怒时,忒弥斯没有回应情绪,而是继续分析“自动化对就业市场的影响趋势及再培训方案”。这种回避情绪的反应,在人类对话中可能被视为冷漠。
第二次对话后,四位参与者接受了简短访谈。年轻程序员说:“它很厉害,但感觉像在和一个超级搜索引擎说话,而不是一个……存在。”失业者更直接:“它不懂我的愤怒。它只懂数据。”
本章未完,点击下一页继续阅读。