所有文章 > 正文

给AI发展“立规矩”,哪些原则最关键?

作者: Jansfer 学术青

时间: 2019-08-30 11:05

2017年,在加利福尼亚州阿西洛马的BenencialAI会议上,来自全球的2000多人包括844名人工智能和机器人领域的专家,基于对AI和Robot迅猛发展的深切关注,联合签署了23条AI发展原则,称为“阿西洛马人工智能原则”(Asilomar AI Principles)。

“阿西洛马人工智能原则”(Asilomar AI Principles),呼吁全世界的人工智能领域工作遵守这些原则,来共同保障人类未来的利益和安全。虽然这23条定律可能无法得到全面落实,但仍然可以改进人工智能的开发过程,确保这些技术符合道德标准。

就在今年5月,北京智源人工智能研究院联合北大、清华等高校、科研院所和产业联盟也共同发布了《人工智能北京共识》,提出AI各参与方应遵循的有益于人类命运共同体构建和社会发展的15条原则,其中包括造福、服务于人、负责、控制风险、合乎伦理、多样包容、开放共享等原则。

但随着人工智能的快速发展,政府(Government)、公司(Private Sector)、政府间组织(Inter-govermental organization)、民间团体(Civil Society)和多方利益共同体(Multistakeholder)都对人工智能所应遵守的原则持有不同的观点。

这些原则究竟是大相径庭?还是有更多的共同点来表明行业规范?有的原则在本质上是不违反道德的,有的则借鉴了人权法。这些原则对人工智能的未来发展又有何影响?

人们希望能有一种方法可以同时查看各类组织的相关原则文件,对它们进行单独的评估并确定重要的趋势。近日,哈佛大学伯克曼克莱恩互联网与社会中心的研究人员构建了一个多方原则图。

190830-10.png

可视化数据图

当前所用的数据涉及5类大数据集,共包括37个原则文档。研究人员在每个原则中收集了多达80个数据点,这些数据点包括文档的编写参与者、发布日期、目标受众、地理范围以及关于原则本身详细数据等。

从单一科技公司对自身实施人工智能技术的指导方针,到多方利益相关者联盟,再到各国政府将伦理原则纳入整体人工智能战略,各种各样的人工智能参与者都有其所遵守的准则,他们希望能够通过比较分析找到一些关键的原则。

统计发现,这些原则主要涉及了9个方面,许多文件或多或少都涉及到了这些原则,这九项原则中又包含很多主题。

原则与相关主题

1. 问责制(Accountability)

问责制,建议采纳新规定,可预测、可验证和可复制,建议影响评估/适应性治理,评估和审计,环境责任,监督机构、上诉权、补救权,自动决策,责任,法律责任;

2. 公平非歧视(Fairness and Non-discrimination)

非歧视与预防偏见,典型的和高质量的数据,公平,平等,包容性影响,包容性的设计;

3. 人类对技术的控制(Human Control of Technology)

人类对技术的控制权,自动决策,选择退出自动决策的权利;

4. 隐私(Privacy)

隐私,隐私设计,数据使用控制,限制处理权,擦除权,纠正,数据保护法;

5. 专业责任(Professional Responsibility)

准确、负责任的设计,考虑长期影响,多利益相关者协作,科学诚信;

6. 提升人类价值观(Promotion of Human Values)

提升技术获得能力,提升人类价值观和人类繁荣,利用这些资源造福社会;

7. 安全和保障(Safety and Security)

安全,保障措施,安全设计;

8. 透明度和可解释性(Transparency and Explainability)

透明度,开源数据和算法,公开采购,信息权,与AI交互时的通知,AI对个人做出决定时的通知,可解释的定期报告要求;

9. 人权引用(Human Rights Referenced)

经过分析发现,不同数据集之间具有不同的侧重方向。

以Google和Microsoft、Telefónica、Tencent为代表的公司团体所遵循的原则中大部分都涉及了公平非歧视原则,都较为注重人权和安全,其中Telia Company、Google、ITI则遵守了全部九项原则。他们对专业责任这一原则态度迥异,除了Google非常重视外,Microsoft、SAGE则根本没有涉及这一原则。

政府间组织(数据库中只提及了Council of Europe:CEPEJ)则较为关注人类对技术的控制,其次是公平非歧视和安全原则,对专业责任、提升人类价值观、人权引用没有提及。

民间团体涉及面相对较广,代表性个体都涉及到了公平非歧视,透明度和可解释性及问责制,此外人权引用、人类对技术的控制和安全在整个民间团体的数据中更受关注,同时他们对透明度和可解释性、问责制也较为重视,但对专业责任这一原则重视程度较小。

多方利益共同体都涉及隐私、问责制和安全,但不同个体的侧重点不尽相同,他们对人类对技术的控制这一原则重视程度较弱,其中的IEEE与University of Montreal则涉及上述提到的9项全部原则。

政府组织的原则都涉及到了问责制,绝大部分政府涉及并格外重视安全及公平非歧视原则,其中German Federal Ministries of Education, Economic Affairs, Labour and Social Affairs涉及9项全部原则,Smart Dubai和European High Level Expert Group on AI涉及了除人权引用之外的其他8项原则。

但观其共性,这5类组织全都遵循问责制、隐私、安全和公平原则,可见,在目前阶段,大多数组织都对人工智能的安全、隐私、责任较为重视。但他们中有一半都没有遵循人权引用这一原则。

参考链接:https://clinic.cyber.harvard.edu/2019/06/07/introducing-the-principled-artificial-intelligence-project/

[关于转载]:本文为“AMiner”官网文章。转载本文请联系原作者获取授权,转载仅限全文转载并保留文章标题及内容,不得删改、添加内容绕开原创保护,且文章开头必须注明:转自“AMiner”官网。谢谢您的合作。

二维码 扫码微信阅读
推荐阅读 更多