第358章 制定人工智能伦理宪章(1/2)
好书推荐: 重生六零:我的时空兑换系统
ForTheLand
颖川传人拜师童渊
穿越:我弄出短视频,万族刷疯了
最强反套路:我真不是气运之子啊
西游:我,吕布,西行灭佛!
遥遥一梦非故人
穿越唐朝当财子
囤物资进空间:七零知青要下乡
四娃伴我闯天涯
生命科技的伦理边界尚在探讨,另一个更为紧迫和复杂的伦理挑战接踵而至——如何为日益强大、渗透至社会每个角落的人工智能,尤其是“伏羲”这样的强人工智能,制定行为准则?制定一部《人工智能伦理宪章》被提上了最高议程。
这项工作由多部门联合牵头,叶辰作为“伏羲”的缔造者之一和顶级技术权威,自然成为核心顾问。宪章的起草过程,充满了激烈的辩论和艰难的权衡。
争论的焦点主要集中在几个方面:
1. 价值对齐问题:如何确保人工智能的目标与人类的核心价值保持一致?人类的价值观本身多元且有时矛盾,如何将其编码为ai可理解、可执行的规则?是设定简单的“不伤害人类”的“机器人三定律”(及其扩展),还是试图让ai理解更复杂的伦理概念,如正义、公平、仁慈?
在一次起草小组会议上,一位计算机专家提出可以用大规模人类反馈数据来训练ai的价值模型。叶辰当即指出了潜在风险:“数据会反映出现实中的偏见和不公。如果用来训练ai,可能会放大这些偏见,甚至固化不公正的社会结构。我们必须对训练数据进行严格的伦理清洗,并设定超越当下社会平均水平的价值导向。”
2. 透明度与可解释性:“伏羲”的某些复杂决策,尤其是基于深度学习网络的决策,有时如同“黑箱”,连它的创造者也难以完全理解其内在逻辑。这对于关乎民生、安全的重要决策是致命的。叶辰强调:“必须将‘可解释性’作为ai,特别是参与公共决策的ai的核心设计要求。我们不能接受一个我们无法理解、无法问责的‘数字上帝’。”他指示雷栋的团队,将“可解释ai”(xai)作为“伏羲”下一阶段升级的重点。
本章未完,点击下一页继续阅读。