所有文章 > 正文

真假美猴王!新模型AI可对抗由AI产生的虚假信息

作者: Jansfer

时间: 2019-07-31 15:54

哈佛大学和麻省理工学院-IBM沃森实验室的研究人员共同制造了一个AI驱动的工具,它能够检测出文本是否由AI生成。该系统被命名为大语言模型测试空(GLTR),旨在检测特定文本是否由语言模型算法自动生成。

相关资讯:

Adobe 研发AI绘画系统,可在一分钟内复制艺术品

MIT-IBM合作开发的全新GANpaint Studio系统让修图真假难分

间谍使用AI生成“假脸”注册虚假LinkedIn账号联系目标人物

随着越来越多的人利用AI和自然语言生成模型制造虚假新闻、恶意传播谣言,GLTR应运而生,它具有为普通人分辨机器生成文本和人类撰写的文章的潜力。根据研究人员公布的结果,GLTR在没有任何预先训练的前提下,使得对假文本的人工检测率从54%提高至72%。

该算法利用文本中统计词汇的分布来鉴别真假。其基本前提是,如果文本是用语言模型生成的,那么其中的字符串将比人类撰写时更加容易预测。

AI文本生成器产生的语句虽然在语法上没有问题,但可能是无实际意义的。GLTR的工作原理是,在一个包含60个单词的窗口中(每边有30个原文本内的词汇),检测上述的统计模式,寻找最符合预测的句子。

如图所示,那些与前文对比出现频率最高的单词高亮显示为绿色,频率稍低的显示为黄色和红色,频率最低的单词显示为紫色。

理想情况下,真实的文本应该具有较多黄色、红色和紫色的颜色分布,如果文本标记中出现大片的绿色和黄色,那么该文本极有可能是机器生成的。

举例而言,当我利用OpenAl的文本生成器生成一段文字,并对其进行检测,颜色标记结果多数是由绿色和黄色组成。

像GLTR这样的项目,不仅在检测虚假文本方面具有价值,而且在识别Twiitter机器人方面也有巨大作用,可用来阻止在美国或其他地方发生的扰乱选举的行为。

现阶段,一个常用的识别工具就是Botometer,它使用机器学习技术来判断,一个账户是由人类还是软件算法操作的。目前,该工具识别账户的准确率在95%左右。

尽管这些方法都不是万无一失的,但是,足以可见创造人类-AI协作系统来解决社会技术问题的必要性。

参考:thenextweb

[关于转载]:本文为“AMiner”官网文章。转载本文请联系原作者获取授权,转载仅限全文转载并保留文章标题及内容,不得删改、添加内容绕开原创保护,且文章开头必须注明:转自“AMiner”官网。谢谢您的合作。

二维码 扫码微信阅读
推荐阅读 更多