所有文章 > 正文

人工智能的伦理发展能否达成全球共识?

作者: Jansfer

时间: 2019-06-03 15:41

上周有42个国家联合签署了一套有关人工智能(AI)发展的政策指导方针,包括澳大利亚在内的一些国家或行业机构自己也制定了相应的道德准则。人工智能的道德准则相关的政策方针很多,但它们是真的可以执行的吗?

有关人工智能发展的最新政策是来自经济合作与发展组织(OECD)的关于人工智能的建议,它提出了诚信人工智能健康发展五项原则,这一建议旨在促进经济发展和创新、培养人工智能发展的基本价值观,这些建议内容宽泛,不具有法律效力。五项原则鼓励:发展、人权、透明、安全、问责制。OECD鼓励成员国将这些价值观融入人工智能的发展中。

对人工智能的发展提出具体可操作的建议是一件很困难的事情,因为人工智能不是单一的应用,面临的风险与挑战更加复杂多样。狭义的人工智能指翻译语言、辨认面孔,下棋等,广义的人工智能是大量系统的总称,使用计算技术收集和处理数据,适应变化,合理行动来实现目标,最终无需人工干预。一些AI开发者的最终目标是使它取代人类智能,这是一条很长的路,但也正是因为这些观念使得人们对人工智能有许多恐惧与误解。

针对这些担忧,OECD的建议是世界各国政府和机构寻求灌输发展人工智能伦理方法的一系列项目和指导方针中的最新建议。澳大利亚政府资助CSIRO的Data61开发了一个人工智能伦理框架供公众反馈,澳大利亚人权委员会和世界经济论坛也在审查和报告人工智能对人权的影响。这些举措的目的是鼓励和推动人工智能的伦理发展,但这些行为都是假定人工智能有潜在恶意用途。一项研究确定了人工智能的三大潜在恶意用途:数字安全(通过网络攻击),物理安全(使用无人机或黑客攻击)和政治安全(利用AI用于大规模监视、说服和欺骗)。

目前中国的一些地区正在建立一个使用人工智能的社会信用系统,该系统可以识别违反社会规范的人(如乱穿马路、与犯罪分子勾结或滥用社交媒体),并从个人处记录社会信用积分。当信用评分降低时,该人的自由(如旅行或借钱)受到限制。

不同的社会对什么是道德有不同的解释,即使是社会内部的人,他们所认为的道德行为也存在差异。那么,如何才能就人工智能的伦理发展达成全球共识呢?鉴于人工智能的发展范围非常广泛,我们只有在全球范围内达成道德行为准则的共识,才能够制定具体的有关人工智能道德准则的具体政策方针。

通过以上述报告和指导方针的形式制定和表达我们认为重要的价值观、权利和规范,努力建立国家间的互相信任。同时我们也发现了在各种指导方针中出现的共同话题,如人权、安全、透明度、可信度和问责制,因此我们有希望建立人工智能伦理发展的全球共识。

推荐阅读 更多