所有文章 > 正文

神仙阵容!张钹、高文、杨强同台论道“AI精度与隐私的博弈”

作者: AI TIME 论道

时间: 2020-06-23 14:13

在AI时代,大众真的“无隐私”吗?

在过去十年,AI 以大数据为驱动,给人类带来了前所未有的便利。但是,数据泄露、隐私丢失等问题也日益严重。

在AI时代,大众真的“无隐私”吗?以“联邦学习”为代表的新兴AI技术能否实现AI协作,提升模型精度与数据的隐私保护?中国如何抢占人工智能安全发展的制高点?下一个十年里,人工智能将会何去何从?

针对上述问题,AI Time 联合北京智源研究院,邀请张钹院士、高文院士、杨强教授、唐杰教授、刘知远副教授进行了第 15 期论道,共同探讨“AI 精度与隐私的博弈”

5 月 29 日,《Science》刊登了题为“人工智能某些领域的核心进展一直停滞不前”的文章,文中提到:一些多年之前的“老算法”如果经过微调,其性能足以匹敌当前的 SOTA。

当下,AI 面临的困境是什么?看完下面这个短片,你也许对此出一个初步的了解。

2020062220501-98qRo8XvfV.png

2020062220502-MMhhT2qVzo.png

2020062220503-H5kxPHKuRn.png

2020062220504-1fO2V3lsuP.png

(暂时无法上传视频,请扫描右侧二维码观看完整短视频)

目前,国外以“欧盟的 GDPR”为代表的相关法律法规以及国内的相关法律规定都取得了长足进展,隐私计算技术也出现了三大主流门派。

少林派

关注安全多方计算,主要依靠技术秘密分享、不经意传输、混淆电脑等技术。

武当派

关注联邦学习技术。

华山派

关注安全屋、可信计算环境等技术。

联邦学习是什么?它的技术原理如何?下面这个短片也许可以给你一点启发。

2020062220507-Pmg7WWQ3n6.png

2020062220505-I1d5ZsA1Fn.png

2020062220506-YMSZsx63hb.png

(暂时无法上传视频,请扫描右侧二维码观看完整短视频)

了解完相关技术,就让我们一起看看各位大咖碰撞出了什么火花吧!

数据隐私之忧

提升模型精度是否一定意味着牺牲隐私保护?美国多地禁止人脸识别,重视隐私保护是否阻碍人工智能发展?对 AI 应用的用户隐私与数据安全的担忧是杞人忧天还是未雨绸缪?如何处理好发展 AI 技术(比如提升模型精度,实现认知智能)与人的关系?

隐私的定义是什么?隐私的范畴在哪里?AI 与隐私的关系是什么?张钹院士从隐私的定义出发,从 AI 制度和 AI 技术手段两方面入手,指出了保护隐私应该坚持的发展方向、具体措施。

隐私是一个相对的概念,隐私保护是一个社会学范畴内的问题,高文院士指出在目前的阶段,相关法律制度还不健全,因此,完善相关的法律法规、政策制度,出台侵犯隐私的惩罚措施等都是非常重要的内容。

隐私一直以来是 AI 的短板,因为深度学习离不开大数据,但数据量的增加会导致侵犯隐私的威胁也在增加。在此背景下,杨强教授分享了瑞典政府对 GDPR 的看法和思路:严格的隐私保护法规是动力,会激励保护隐私的技术及早出现,并帮助欧洲在技术领域领先。

技术突围之道

针对用户诉求、国家监管需要,以联邦学习为代表的 AI 新技术能否解决大数据 AI 协作与数据隐私保护之间的矛盾?这些技术的优势与局限性有哪些?如何让更多人参与到这些技术创新中来,开源?激励机制?

技术流派应该百花齐放,整个社会应该重视诚信。高文院士认为:第一,各家应该努力去寻找最好的技术,让隐私得到最好的保护。第二,根据我国技术和社会发展现状,如果想让技术和社会和谐快速发展,隐私得到很好地保护,诚信是非常重要的内容。此外,开源在技术发展中具有重大价值,需要特别关注。

为什么要保护隐私?张钹院士先提出了这个关键问题,之后开始详细阐释了隐私保护的目的,并就东、西方价值观的差异引申出了我国隐私保护的核心问题——不滥用个人信息。避免滥用有两个方面,一方面是制定法律、规则,限制滥用行为;另一方面是发展安全、可靠、可信赖、可扩展的 AI 技术。

联邦学习的基本思想是:数据不出本地,模型得到更新基于此,杨强教授详细剖析了传统的数据处理、模型训练方式和联邦学习中数据处理、模型训练方式的异同,指出了联邦学习的优势、对抗机制,及其在企业之间应用的实例。

下一代人工智能

面对现有的困境与桎梏,下一代 AI 技术应该具备哪些特点?我们如何抢占制高点?人与 AI 如何更好地协作,创造更大的价值?

下一代 AI 首先要考虑人,要考虑人与机器的协作,要考虑人的利益,基于此认识,杨强教授指出下一代 AI 中可解释性是非常重要的,同时,要了解如何将人类的智慧赋予机器,让机器站在人类的肩膀上学习。针对相关问题,杨强教授号召研究者选问题时要从很新、很难、容易解释的角度切入

对于可解释性是第一位的观点,高文院士表示认可,并补充指出 AI 的高效能也是非常重要的一点。对比人脑,现有 AI 系统的效能还不够高,根据鹏城实验室的实际工作来看,AI 精度超过人类的代价很大。对此,研究者应该去做其他人没有做过的东西,尝试让机器对知识有继承。

AI 的最终目标是什么?我们现在做了哪些事?张钹院士以此为出发点,指出了目前我们沿着符号主义、连接主义已经取得的成就,并一针见血地指出现有 AI 的发展还处于序幕阶段,没有解决符号基础问题,没有涉及智能的根本问题,现有 AI 系统不安全、不可靠、不可解释、不容易扩展。对此,我们只有加强 AI 相关基础研究,具体到我们国家,我们其实已经有条件去做这件事了,但是路程还很漫长。

对于基础研究,张钹院士认为落脚点还是发表论文。目前,我国的基础研究已经取得长足进步,基础研究的平均水平达到了世界一流水平,但是最高水平与世界一流水平还存在差距,我们要在制度、体制上创新,鼓励、支持研究者探索新领域,勇于面对失败,能够经得起失败。

总结与展望

近期,国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》,针对 AI 的下一个十年,三位专家也给出了自己的总结与展望。

AI的治理问题非常重要,张钹院士认为只有把 AI 智力问题想清楚了,才能看清技术的发展方向,清楚自己该做什么工作。

发展 AI 是为了造福人类社会,高文院士提出要综合考虑技术发展、社会影响与成本。

AI 的发展引起了全社会的关注,进而引出来了越来越多的限制和要求,如隐私保护等。杨强教授认为这些要求孕育了新的机会,引出了新的研究课题,有志向的研究者要勇于踏进新的技术领域,开创新的局面。

(直播回放:https://space.bilibili.com/503316308/video

为了感谢各位小伙伴的支持,AI Time特别准备了三本《联邦学习》中文版纸质书,欢迎大家转发文章、抽取图书。

点击左侧“下载报告”,获得报告PPT。

往期回顾:

14万顶级学者数据揭秘:过去30年,北京的高级AI人才,最终去哪儿了......

熬夜刷手机,真的会影响视网膜细胞发育,甚至导致失明!

见证新时代,人工智能正“重新配置”世界秩序

[关于转载]:本文为“AMiner”官网文章。转载本文请联系原作者获取授权,转载仅限全文转载并保留文章标题及内容,不得删改、添加内容绕开原创保护,且文章开头必须注明:转自“AMiner”官网。谢谢您的合作。

二维码 扫码微信阅读
下载报告
推荐阅读 更多