所有文章 > 正文

科幻小说可预警AI“偏见”,防止灾难性后果

作者: Jansfer

时间: 2019-09-27 14:41

关键词: AI偏见

新兴技术的出现往往存在着人类的偏见,而科幻类的小说通过推理的故事可以对这些偏见起到预警的作用。

新兴技术的出现往往存在着人类的偏见,而科幻类的小说通过推理的故事可以对这些偏见起到预警的作用。

短片《杀戮无人机》(Slaughterbots)描绘了不久的将来,成群的微型无人机因政治信仰杀害了成千上万的人类。 该短片由部分学者和激进主义者于2017年11月发布,警告了高级人工智能(AI)的危害,该短片迅速走红,迄今为止已超过300万的浏览量,引发了关于未来自主武器的公开辩论,并且有助于向出席《联合国常规武器公约》会议的外交官们施加压力。

这种推理类的科幻故事不仅可以吸引社会对于人工智能的注意力,同时对于设计和构建先进技术的人员,可以使用故事的方法来评估他们工作的后果并确保能够将其用于有益的方面。从而帮助防止人类的偏见进入新技术,以免进一步加剧社会的偏见和不公。

偏见可能导致对某些类别的任意偏好。例如当今社会有些人对雇用女性担任管理工作有偏见。基于根据收集这种偏差的数据而建立的技术,最终可能会加剧这一问题。为挑选适合某一特定职位的最佳简历而设计的招聘软件,可能被编程为优先选用男性的特征,在这种情况下,该算法最终将有利于男性简历。这并不是推理,这种偏爱男性的简历筛选算法就曾在亚马逊的招聘网站出现过。

在设计算法时不考虑可能的负面影响,就好比医生“只写某一种治疗方法的好处,而完全不管该方法的副作用有多严重”。一些科技公司和研究人员正试图解决这个问题。谷歌制定了一套伦理原则来指导人工智能的发展。英国学者发起了一项名为“不平等”的倡议,旨在鼓励在设计和使用技术时更加公平和公正。而问题在于,企业往往只对技术的近期利益持积极看法而不考虑其长远的危害。例如无人驾驶汽车通常被认为可以从成本到安全解决我们所有的交通问题,却忽视了不断增加的网络攻击的危险,以及这种技术的出现可能会减少人们走路、骑车等绿色出行方式的时间。

一方面是令人安心的正面叙述,另一方面是模糊的怀疑,实际上偏见在一定程度上已经嵌入了我们周围的技术。在这种情况下,我们认为可以通过科幻小说讲故事来防止人类的偏见进入新技术。

故事是思考可能性和复杂情况的一种自然方法,我们一生都在聆听故事。 科幻小说可以像《杀戮无人机》一样帮助我们推测近期技术对社会的影响。科幻小说为设计师、工程师和未来学家等提供了一种新颖的方式,让他们从人类的角度思考技术的影响,并将其与未来可能的需求联系起来。通过逻辑和想象力的结合,科幻小说可以揭示技术如何被采用和使用的各个方面,并讨论其未来的影响。短篇小说《众包犯罪》(Crime-sourcing)探索了如果人工智能使用众包信息和犯罪数据库来预测谁可能犯下谋杀罪,会发生什么。研究人员发现,由于社会原因,数据库中大部分是少数民族人群,统计数据显示他们更有可能再次犯罪,因此“众包犯罪”模型比种族歧视人群更容易错误地怀疑少数民族。

要创作科幻小说,你不必非得是一个有才华的作家,涉及故事脚本的头脑风暴活动已被用于开发科幻小说。使用这类方法的研讨会更加普遍,将使更多的工程师、企业家和决策者能够使用这种评估方法。将研究成果公之于众,将有助于在技术影响社会之前揭露其潜在的偏见。鼓励设计者以这种方式创造和分享更多的故事,可以使得新技术的出现不会只呈现出积极的一面,也不会只呈现出极端消极的一面。相反,人们将能够辩证且全面地了解到我们周围发生和出现的事情。

参考:https://techxplore.com/news/2019-09-science-fiction-bad-technology.html

[关于转载]:本文为“AMiner”官网文章。转载本文请联系原作者获取授权,转载仅限全文转载并保留文章标题及内容,不得删改、添加内容绕开原创保护,且文章开头必须注明:转自“AMiner”官网。谢谢您的合作。

扫码微信阅读
小科