所有文章 > 正文

一项关于YouTube推荐算法的审查揭示了其“激化”用户的途径

作者: Jansfer

时间: 2019-08-30 18:08

由美国、瑞士和巴西的大学组成的研究小组发现,YouTube的推荐算法可能会分享右翼种族主义频道。

一项关于youtube推荐算法的审查揭示了其“激化”用户的途径.png

图片来源:Szabo Viktor

上周在arXiv.org上发表的一篇题为 “审查YouTube的激进化途径”(Auditing Radicalization Pathways on YouTube)的文章中详细介绍了这项工作,文章认为YouTube中关于 “另类右翼”的内容是激进化的一种表现,因为它的内容常与大规模枪击和群体冲突加剧有关。

今年,YouTube已经开始采取措施减少关于阴谋论或错误信息推荐的视频,但它依然面临批评。本周二,在一封给YouTube视频制作人的季度信中,YouTube的首席执行官Susan Wojcicki表示,平台必须接受一些具有进攻性的内容的存在,他说:“听取广泛的观点,最终会使社会成为一个更强大、更具见识的社会。”

研究人员将视频分成三类—— Intellectual Dark Web(IDW)、Alt-lite和Alt-right,以便区分不同程度的种族主义和激进化,进而得出了他们的发现。

该审查将IDW内容定义为偶尔带有攻击性或与恐同、恐伊斯兰或种族主义有关的内容,而Alt-lite内容通常是右翼活动人士的作品,他们对白人至上的想法并不在意,Alt-right内容则公开支持白人民族国家。

然后,研究人员在YouTube中用三个社区都熟悉的一组关键词进行搜索,并记录了前200个英文搜索结果。还增加了与该主题广泛相关的频道,例如与另类右翼有关的知名人士的名字。

审查报告中写道:“我们的分析表明,尤其是通过频道推荐系统,我们很容易从IDW频道中发现Alt-lite频道,而Alt-right频道也可以从其他两个社区获得,YouTube非常受欢迎,尤其是在儿童和青少年中,如果流媒体网站在激化个人,这可能将“白人至上”等边缘意识形态推向主流。”

研究人员在观看了超过50小时的具有手动注释数据集的 alt-right内容后得出了他们的发现。分析的数据集由超过330,000个视频、360个频道、7900万条评论、200万个视频推荐和10,000个频道推荐组成。

在360个频道中,90个被分为IDW,114个被分为Alt-lite,88个被分为Alt-right。

为了解释视频和频道推荐中潜在的位置偏差,研究人员使用了VPN来收集数据。其中三个VPN设在美国,两个设在加拿大,巴西和瑞士各设一个。

一种激进化的代理模式

为了跟踪用户的激进化,研究人员将用户分为不同的感染类型。如果用户发表一两条视频评论,则视为“轻度感染”;如果他们发布三到五条评论,则视为“中毒感染”;如果他们留下六条或更多评论,则视为“重度感染”。其中约10%的评论者被轻度感染,4%(超过9,000人)被中度或严重感染。

评论能够视作一种信号,因为大多数评论彼此是相互赞同的,并且在2018年,另类右翼的视频大约每五次浏览就会收到一条评论。

该报告还写道:“我们认为,这一发现有重要的证据证明,YouTube上曾经存在并且仍然存在用户被激进化。”然而,研究人员并没有宣称YouTube是一个激进化的渠道,因为在研究结果中尚无法解释个性化。

报告称:“在2018年,对于所有类型的感染,大约40%的评论用户可以追溯到过去只在Alt-lite或IDW视频中发表评论的用户群体。

观察人士们指出,现在许多专注于另类右翼内容的频道都是从关于视频游戏或锻炼等不同主题的视频开始的,但政治成为一个谈论的“越来越多”的话题。

审查发现,这三类用户中,每一类之间都有大量的用户流动,这表明他们越来越多地共享同一个评论库。自2015年以来,这三类视频的活跃度都有所上升。

在去年秋的一份年度报告中指出,美国司法部表示仇恨犯罪已连续第三年上升。研究人员发现,自2015年以来,这三类视频在YouTube上的点击量、点赞量和视频量都相应上升。

为了进行审查,研究人员进行了10,000次模拟来分析算法性能,并使用定制的爬虫程序收集视频和频道推荐。他们收集了多轮推荐——22轮频道推荐,19轮视频推荐。

研究人员称:“如果我们按照推荐系统进行5次,每次25次中约有1次我们会发现一个Alt-right频道。”

研究人员将少数主流新闻来源的内容作为对照,发现它转变为另类右翼的趋势有所减弱,人们对另类右翼内容的参与度也有所提高。到2018年,每五次浏览中,就有一条评论是关于另类右翼内容的。

研究人员指出,对主流媒体持怀疑态度,以及越来越多的人通过社交媒体获取新闻,可能有助于激进化的趋势。

审查由哈佛大学伯克曼克莱因互联网与社会中心,巴西UFMG和瑞士EPFL的研究人员进行。未来的研究可以考虑个性化,并对评论内容进行更深入的分析,以便跟踪单词的使用模式和语气的演变。

参考:https://venturebeat.com/2019/08/28/youtube-recommendation-algorithm-audit-uncovers-paths-to-radicalization/

[关于转载]:本文为“AMiner”官网文章。转载本文请联系原作者获取授权,转载仅限全文转载并保留文章标题及内容,不得删改、添加内容绕开原创保护,且文章开头必须注明:转自“AMiner”官网。谢谢您的合作。

二维码 扫码微信阅读
推荐阅读 更多