所有文章 > 正文

AI系统能否内置道德伦理规则

作者: GCT

浏览量: 282

时间: 2019-09-24 09:06

关键词: AI伦理

我们创造AI的目的是为了给人类创造更美好的生活,因此有必要让AI懂得遵守人类的道德伦理规范。那么我们究竟能否做到这一点?

人类的道德规范往往可以用自然语言描述,但却难以编写成计算机代码或其它任何能被机器理解的方式。因此,让AI具备理解人类自然语言的能力可能对这一任务具有极其重要的价值。幸运的是,近年来自然语言处理(NLP)技术突飞猛进,取得了非常重要的进展,让我们离AI真正理解人类语言的目标又更近了一步。

但这个问题远不止涉及自然语言处理,一个更加核心的问题是我们人类自身尚且还没有在道德方面形成完全一致的看法,更何况现实生活中还往往存在着两难的道德困境。而机器往往需要清晰明确的指标以实现优化和判断。

举个例子,我们该如何让机器学会克服其训练数据中的族群和性别偏见以实现公正?如果工程师无法为“公正"这一概念提供精准的定义和评估指标,那么机器也将很难学习到它,进而可能导致AI拒绝或无法为少数群体服务的后果。

牛津大学研究员VyachesIav Polonski在一篇文章中总结了设计更道德的机器所应遵循的几个指导方针:

·明确定义合乎道德的行为

·让大众参与到人类道德的定义之中

·让系统更加透明

目前来看这几点都还很难真正在实际生活中实现,光是第一条就很难办到,毕竟

我们连怎样确定人类是否道德都还没有一致的看法,更勿论创造道德的机器了。

下面是一些专家的看法:

LiesbethVenema

《自然-机器智能》主编

AI不能模仿人类的道德伦理推理,为机器人定义法律或道德伦理规则的尝试似乎是受到了误导。AI系统和机器人是工具,它们的行为必然总是取决于使用或制造它们的人。

——来自腾讯 Nature Conference

AI与机器人大会

NickBostrom

牛津大学哲学家,著有《超级智能》

可以验证,构建可信任的AGI将需要不同的方法和不同的思考方式,比如在检查电站软件中的漏洞时需要AGI能够像关心道德伦理的人类工程师那样思考,而不只是筒单地进行道德伦理工程设计。

因此,AI伦理道德的原则(尤其是应用于AGI的)很可能从根本上就不同于非认知技术的道德伦理原则,这体现在如下方面:

·即使开发者做对了每件事,AI的局部的特定行为可能除了安全之外是无法预测的;

·因为我们必须验证系统尝试做什么,而不是在所有的操作环境中验证系统的安全行为,所以验证系统的安全性会变成更大的难題。

·道德伦理认知本身应该被视为工程学的一大主题。

——来自The Ethics of Artificial Intelligence

Stephen A.Schwarzman

Blackstone公司主席、CEO和联合创始人

有道德的AI方法需要我们对我们希望见到的这项技术所反映的价值观有长期的理解——并为创造反映这些价值观的有信心的AI应用塑造规则。这些价值观和规则位于道德伦理、法律和国际关系的交叉领域;它们不会只是来自硅谷。

但大学(充满了批判性的思考者,不受短期的市场压力影响,专注于大思想)是推动技术发展和研究其影响的合适地方。联邦政府将需要为AI提供显著更多的资金,以帮助美国维持其技术优势,以及加强其在道德和工作场所领域的协调作用。从人类基因组计划到互联网的早期阶段,我们已经看到这种协调模式之前取得过很好的效果。

——来自The Washington Post

[关于转载]:本文转载于GCT,仅用于学术分享,有任何问题请与我们联系:report@aminer.cn。