所有文章 > 正文

Reddit和Gab的恶语论坛中,出淤泥而不染的AI对抗仇恨言论

作者: Jansfer

时间: 2019-09-29 15:28

加州大学圣巴巴拉分校(UC Santa Barbara)和英特尔(Intel)的研究人员从Reddit和Gab网络社区最下流的论坛中收集了数千条对话,并利用这些对话开发和训练人工智能来对抗仇恨言论。终于,这些污秽信息也能派上点用场。

加州大学圣巴巴拉分校(UC Santa Barbara)和英特尔(Intel)的研究人员从Reddit和Gab网络社区最下流的论坛中收集了数千条对话,并利用这些对话开发和训练人工智能来对抗仇恨言论。终于,这些污秽信息也能派上点用场。

1 (4)_wps图片.jpg

为了开发这套AI系统,研究人员创建了新型的数据集,其中包括了上千条充斥着仇恨言论的对话信息。如今,有很多研究致力于解决Twitter和Facebook上的仇恨言论问题,相比之下,对于Reddit和Gab的研究还不足,并且也缺少可用的高质量数据集。

该团队的研究报告显示,搜集足够多的帖子并不困难,他们已经获得Gab十月份的所有帖子和Reddit的嫌疑帖子。

感谢Vox’s Justin Caffier编辑了Reddit的“最古怪、最低调且有毒的”板块。这类组织假装专注于散播仇恨以外的事情,但实际上它们正是传播仇恨言论的避风港。

研究人员分别在Reddit和Gab上搜集了22000多条和33000多条评论,他们发现,顽固者虽然都应当被谴责,但是使用恶语的习惯却截然不同:Gab和Reddit的数据集中含有相同的热门恶语词汇,但是使用频率却差别很大。上述资料显示,从两个网站上搜集到的数据具有不同的特征,因此,对于这两个来源的数据集进行侦测与干预也需要采取不同的手段。

2 (4)_wps图片.jpg

图|Reddit和Gab中的仇恨言论词汇使用频率

这两者的区别使得对社交媒体网站的实时干预变得困难,仅依靠人力是绝对无法跟上仇恨言语的更新速度。因此,研究人员决定尝试另一种途径:自动干预。他们首先将记录仇恨言语的巨大数据包寄给亚马逊土耳其的员工,并让员工进行标记。一旦识别出个人的仇恨言论,他们要求亚马逊员工给出制止标语以供AI使用,从而阻止用户在未来继续发表相似的仇恨言论。

接着,研究人员通过多种机器学习和自然语言处理系统来运行其数据集和干预标语数据库,创造出了用于干预网络仇恨言论的AI原型。

研究结果表明AI能发挥较大作用!但是,目前AI还没有完全准备好,理论上该系统应该能够检测仇恨言论,并立刻发出消息告知发布者,其发布内容含有明显的仇恨言语。实际上,这不仅仅需要关键词检测,还需要AI正确理解言论内容。

3 (1)_wps图片.jpg

图|AI干预性回复示例

举例而言,如果你用具有仇恨言论的绰号称呼某人,AI应该要回复你“使用贬低或侮辱女性的词汇是不合适的”或“我能理解你的不悦,但是基于别人的种族使用仇恨言论是不道德的。”

然而,事实却不尽如人意,AI似乎很喜欢回复他人。只要人们在Gab上说什么事情,提及到“弱智(retarded)”这个词,甚至对话中并没有出现这个词,而只是R开头的单词,AI就会对其进行回复,这显然是有问题的。

研究人员将此归结于Gab上仇恨言论的独特分布性——Gab的主要仇恨言论是涉及对残疾人的蔑视。虽然,该系统没有在Reddit上遇到的问题,但是它却会回复一些无效的信息,例如,“我不会使用种族歧视的辱骂”和“如果你不同意自己的观点,就没有理由谩骂别人”(以上语句不是拼写错误)。

遗憾的是,如同早期的AI项目,要想实现AI正确干预网络言论,极其大量的训练数据集和开发工作是必不可少的。另一方面,干预专家设计的精巧回复绝对有望减少网络仇恨言论的现象,尤其是结合机器学习体系实现高准确率的仇恨言论侦测。

所幸网络中的仇恨言论有增无减,因为更多的数据将更加有利于研究的进行。

参考:https://thenextweb.com/hardfork/2019/09/27/binance-says-it-buddied-with-uk-police-to-catch-crypto-criminal-who-stole-51m/

[关于转载]:本文为“AMiner”官网文章。转载本文请联系原作者获取授权,转载仅限全文转载并保留文章标题及内容,不得删改、添加内容绕开原创保护,且文章开头必须注明:转自“AMiner”官网。谢谢您的合作。

二维码 扫码微信阅读
推荐阅读 更多