第137章 智能陷阱(1/2)

赫尔辛基案件尘埃落定后的第二个月,incbi的预警系统捕捉到了一个异常信号。不是明显的犯罪活动,而是一种微妙的模式——全球范围内,有十七家初创科技公司在同一天,以几乎相同的方式,宣布获得了来自同一家风投基金的投资。

“智源资本,”阿ken调出这家基金的信息,“注册在开曼群岛,公开信息极少。但根据有限资料,它成立于五年前,管理资金规模超过百亿美元,投资组合全是人工智能相关企业。”

沈清音正在分析这十七家公司的共同点:“它们都专注于ai伦理研究、算法公平性、或数据隐私保护。表面上看,这是资本在支持‘负责任的人工智能发展’。”

“但时机太巧合了。”陆琛指出,“十七家公司,分布在九个时区,却在二十四小时内完成融资公告。这需要极其精密的协调。”

进一步调查发现更可疑的细节。这些公司的创始人背景惊人相似:都是四十岁左右的男性,拥有顶尖大学计算机科学或数学博士学位,曾在大型科技公司工作,然后在三到五年前离职创业。

“就像是从同一个模板里刻出来的。”老周对比着创始人履历,“甚至连创业时间都集中在36-42个月这个区间。”

incbi决定深入调查。他们选择其中一家位于伦敦的初创公司——“公正算法实验室”作为突破口。这家公司宣称要开发“完全透明、可解释、无偏见的ai决策系统”,已经获得了包括智源资本在内的多家投资。

沈清音和阿ken以技术咨询名义拜访了公司。实验室位于伦敦科技城的一栋现代化建筑内,装修简约而高档,员工们看起来专业而专注。

“我们相信ai应该服务于全人类,而不是加剧不平等。”公司创始人,前谷歌工程师詹姆斯·威尔逊热情地介绍着他们的理念,“我们的算法在设计之初就融入了伦理考量,每一步决策都可以追溯、解释、审核。”

参观过程中,沈清音注意到了几个不协调的细节。尽管公司宣称专注于算法公平性,但他们的服务器配置却异常强大,远超研究所需;员工的电脑屏幕上显示的代码,包含了一些与公开研究方向无关的复杂加密模块;更奇怪的是,实验室的一个区域被严格隔离,需要生物识别才能进入。

“那是我们的核心研发区,”威尔逊解释,“涉及一些专利技术,需要额外保护。”

离开公司后,沈清音立即将发现汇报给incbi:“他们在隐藏什么。那个隔离区里进行的,绝对不是公开宣称的伦理算法研究。”

阿ken通过网络渗透获得了更多信息:“公司内部通讯中频繁提到‘项目雅典娜’,但所有相关讨论都经过加密,无法破解。”

“雅典娜,希腊神话中的智慧女神。”陆琛沉思,“这暗示着他们的项目与‘智慧’或‘知识’有关。”

就在incbi准备深入调查时,一个意外事件发生了。公正算法实验室的一名研究员——莎拉·陈博士,在深夜向incbi发送了一封加密邮件,然后失踪了。

邮件内容令人震惊:“项目雅典娜不是伦理算法研究,而是开发能够预测和影响人类行为的ai系统。他们已经在进行未经授权的实验。救我。”

邮件还附带了一个加密文件包。破解后,里面是实验室的真实研究数据:通过分析社交媒体、消费记录、位置信息等海量数据,ai系统能够以87%的准确率预测个人的重大人生决定——如职业选择、伴侣选择、甚至是否要孩子。

更可怕的是,系统还能通过精准的信息推送,影响这些决定。实验数据显示,在特定人群中,系统的“引导成功率”达到63%。

“这是大规模的行为操纵。”沈清音感到背脊发凉,“而且他们已经在进行实际测试。”

incbi立即启动紧急程序。一方面寻找失踪的莎拉博士,另一方面对智源资本及其投资的十七家公司展开全面调查。

寻找莎拉博士的过程异常艰难。她的手机信号最后出现在伦敦希思罗机场,然后消失。出入境记录显示她没有离开英国,但也没有任何住宿或交通记录。

“她被藏起来了,或者更糟。”陆琛面色凝重。

与此同时,对智源资本的调查揭示了更庞大的图景。这家风投基金的投资网络覆盖全球,不仅投资ai公司,还涉及生物科技、神经科学、甚至教育领域。所有被投公司都有一个共同点:它们都在收集和分析人类行为数据。

“看这个。”老周调出关联图谱,“智源资本、公正算法实验室、还有另外三家公司,它们的董事会中都有一个共同的名字——奥利弗·斯特林。”

奥利弗·斯特林,六十三岁,英国贵族后裔,牛津大学哲学与数学双博士,曾担任多家科技公司顾问。公开资料显示他是一名慈善家和科技伦理倡导者,经常在达沃斯论坛等场合发言。

“完美的伪装。”陆琛说,“公开倡导伦理,私下却进行最违反伦理的实验。”

incbi决定直接接触斯特林。通过正式渠道,他们邀请斯特林到海牙,就“ai伦理的国际监管框架”进行咨询。

斯特林欣然接受邀请。当他走进incbi会议室时,展现出的是一位典型的英国绅士:得体的西装,温和的笑容,睿智的眼神。

“我一直认为,像incbi这样的机构非常重要。”斯特林开场说道,“在技术快速发展的时代,我们需要明智的监管,来确保科技服务于人类,而不是相反。”

谈话进行了两个小时。斯特林对ai伦理的见解深刻而全面,他甚至主动提出了许多监管建议,包括算法透明度要求、数据隐私保护、偏见检测标准等。

如果不是掌握了确凿证据,任何人都会相信他是一位真诚的科技伦理倡导者。

会谈结束后,沈清音提出了自己的观察:“他的所有回答都太完美了,像是精心排练过的。而且在谈到某些具体问题时,他的微表情显示出与言语不一致的情绪。”

“你是说他在撒谎?”陆琛问。

“不完全是撒谎,”沈清音说,“而是...选择性呈现。他说的都是真话,但不是全部真相。”

为了验证这个判断,incbi设计了一个巧妙的测试。他们安排斯特林参加一个科技伦理研讨会,在会上,一名研究人员“无意中”提到了公正算法实验室的“项目雅典娜”。

本章未完,点击下一页继续阅读。