所有文章 > 正文

讲座内容|清华大学刘世霞“可解释机器学习的可视化分析”(附PPT)

作者: 学术君

时间: 2019-04-24 09:46

方圆系列报告会之《大数据分析与可视化报告会》于前段时间在清华大学内成功举办,现场邀请了清华大学副教授刘世霞、浙江大学教授陈为、同济大学教授曹楠和中国人民大学讲师张静共四位嘉宾进行学术演讲。在获得各位老师的授权后,各位老师的现场演讲PPT已可在本公众号回复相应关键词下载。(不可做商用)

今天将跟大家分享的是清华大学刘世霞老师的演讲PPT:

《Visual Analytics for Explainable Machine Learning》

刘世霞老师在此次报告中,主要为大家介绍了一些基于可视分析的可解释机器学习方面的工作(本文将以第一人称陈述报告内容)。

在我们的日常工作和生活中,机器学习无处不在,典型的例子包括搜索、推荐和欺诈检测,机器学习在这些任务中扮演着非常重要的角色。

为了让我们能够更好地了解机器学习模型的工作机制,并根据需要使用它们。为此,DARPA启动了可解释的人工智能项目。

Xai包括三个部分,我们的工作重点是基于可视分析技术的可解释界面,将最先进的HCI与新的原则、战略和技术相结合,以产生有效的解释。

DNNs已经发展成为许多人工智能应用中的最先进技术,然而,研究人员发现,DNNs通常容易受到恶意生成的对抗性示例的攻击,这些示例旨在误导DNNs做出错误的预测。

这种现象给将DNNs应用于安全和安全关键应用(如无人驾驶汽车、人脸识别ATM)带来了高风险。

在这项工作中,我们提供了一个可视化的分析工具来解释为什么会出现这样的错误分类。

[I]首先介绍如何抽取数据通路。

[I]抽取数据通路的关键在于,求出重要的神经元。

现在,研究者们普遍将响应最大的神经元作为数据通路,但是,当图片中出现容易识别的次要物体时,会出现错误。

产生这个错误的原因有两个:

第一,神经元之间存在复杂的关系;

第二,响应往往通过一个复杂的非线性函数才能得到最终的判决结果。

为了解决这个问题,这里我们选取真正能够影响最终判决结果的神经元作为重要的神经元。

换句话说,我们通过选取尽量少的神经元,达到保持原判决结果不变的目的。

从而将这个问题建模为一个子集选取问题。

深度生成模型(Deep Generative Models)


上面有一个隐含的变量,用 Z 表示;中间会经过一个深度神经网络,你可以根据你的任务选择不同的神经网络、不同的深度、不同的结构;下面是我们观察到的数据 X。这个场景有很多,比如对抗生成网络,可以生成高维的自然图片。实际上,Z 可以是非常随机的噪声,通过神经网络可以生成非常高质量的图片。

在这种框架下,我们可以做很多。比如可以给隐含变量设定某些结构信息,比如生成人脸时,有一些变量指代人的姿态,另外一些变量可能描述其他的特征,这两个放在一起我们就可以构建这样一个深度生成模型。

它同一列有同一姿态,可以变化其它变量来生成不同的图片。现在是非常受欢迎、非常强大的一种模型了。

与CNN不同的是:x和z都是随机变量,而CNN中都是实数


深度学习模型通常容易受到对抗性干扰的影响,在这种情况下,恶意生成对抗性示例,以误导模型输出错误的预测。对抗性的例子被修改得很小,因此在许多情况下,这些修改可能非常细微,以至于人类观察者根本就无法注意到修改,但是模型仍然出错。

这些对抗性的例子经常被用来攻击深度学习模型。在这方面,在实际应用中,保持深度学习模型的健壮性至关重要。

因此,一个可解释的深度学习的研究机会是将人类的知识结合起来,以提高深度学习模型的鲁棒性。

[关于转载]:本文为“学术头条”原创文章。转载仅限全文转载并保留文章标题及内容,不得删改、添加内容绕开原创保护,且文章开头必须注明:转自SciTouTiao微信公众号。谢谢您的合作。

二维码 扫码微信阅读
推荐阅读 更多