所有文章 > 正文

纽约大学:基于社会科学的AI技术才能更公正

作者: Jansfer

时间: 2019-08-13 16:16

越来越多的证据表明人工智能会加剧不平等,让歧视永久化,并造成伤害。为了实现这种技术的社会公正,我们需要一个广义的社会科学概念,其中包括已经开发出的应对广阔社会的方法的学科,这有助于理解AI危害如何以及为什么会成为庞大、复杂和新兴的技术社会科学的一部分。

tyr.png

图片来源:纽约大学

为了创造出危害更小的技术,引发积极的社会变革,人工智能工程师应该从广泛的社会科学中汲取想法和专业知识,包括那些采用定性方法的学科,使其更好地服务社会。纽约大学的研究人员已经在一项分析中得出了结论,现已发表在《自然-机器智能》(Nature Machine Intelligence)杂志上。

纽约大学公共知识研究所的研究员Mona Sloane和纽约城市大学的博士生Emanuel Moss表示:“越来越多的证据表明人工智能会加剧不平等,让歧视永久化,并造成伤害。为了实现这种技术的社会公正,我们需要一个广义的社会科学概念,其中包括已经开发出的应对广阔社会的方法的学科,这有助于理解AI危害如何以及为什么会成为庞大、复杂和新兴的技术社会科学的一部分。”

作者概述了为什么社会科学方法及其许多定性方法,可以明显地提高人工智能的价值,同时避免记录在案的陷阱。研究表明,搜索引擎可能会歧视有色人种女性,而许多分析人士也对自动驾驶汽车在撞车情况下如何做出可被社会接受的决定提出了质疑(比如避开人而不是消防栓)。

研究员Mona Sloane(也是纽约大学Tandon工程学院的兼职教员)和博士生Emanuel Moss承认人工智能工程师目前正在试图灌输“价值对齐”的理念,即机器行事应与人类价值观相一致,但他们补充道,将这种价值观编码到机器中是极其困难的。

为了解决这一不足,作者提出一系列建议,为将人工智能纳入社会科学提供了蓝图。

定性的社会研究有助于理解社会生活的类别以及使用的人工智能类别。在该研究中,研究员发现,例如,未经培训的技术人员,无法理解机器学习中的种族类别是如何作为一种社会结构重现的,这种社会结构对现实社会的组织和分层产生了影响。但这些问题在社会科学中得到了深入的讨论,这有助于创造社会历史背景,而这种背景可以明确地表达像“种族”这样类别的历史。

定性数据的收集方法可以通过建立协议来减少偏见。作者指出,“数据总是会反映收集者的兴趣和偏见,定性研究对数据收集是很明确的,而AI中的定量研究则不然。”

定性研究通常要求研究人员反思他们的干预是如何影响他们所观察的世界。定量方法不需要研究人员或人工智能设计师将自己定位在社交世界中。因此,不需要评估谁被纳入或谁没有纳入重要的AI设计决策中。

Sloane和Moss总结道:“随着我们将社会、文化和技术元素融入在生活中,我们必须将不同类型的知识整合到技术开发中。人工智能在社会中更公正、更民主的未来,不能仅仅是计算或设计出来的;它必须生活在其中,并从对社会的深刻理解中得出。”

(参考来源:techxplore)

推荐阅读 更多