所有文章 > 正文

AI Time 8|技术安全与伦理的较量——论道AI的能与不能

作者: 霖雨铃

时间: 2019-11-08 15:04

第八期AI Time,我们邀请到了中国科学院院士张钹、加州大学洛杉矶分校教授朱松纯、北京大学教授黄铁军、中国人民大学教授文继荣四位人工智能领域顶尖学者,共同论道“人工智能的能与不能”。

在电影《超能陆战队》中,医疗机器人“大白”只需一次简单快速的扫描,就能检测出主人的生命指数,并根据疼痛程度治疗疾病。

微信图片_20191108112410.gif

现实当中,已经有了许多像大白这样的手术机器人、康复机器人、诊断机器人。如Somnox智能机器人枕头,它可以根据你的睡眠数据,为你制定专属睡眠治疗方案,使你整晚安眠。

微信图片_20191108112417.jpg

除了大白以外,还有许多科幻电影中的新奇科技,正走出银幕,成为现实。

微信图片_20191108112421.gif

图|人脑联机,用意念打字。电影黑客帝国、阿凡达中的脑机接口,已成为现实。

那么,实现大白、贾维斯这样的AI,难度如何?实现AI的路线图是什么?实现AI的过程中,什么能做,什么不能做?

第八期AI Time,我们邀请到了中国科学院院士张钹、加州大学洛杉矶分校教授朱松纯、北京大学教授黄铁军、中国人民大学教授文继荣四位人工智能领域顶尖学者,共同论道“人工智能的能与不能”。

微信图片_20191108112425.jpg

本期AI Time由清华大学教授唐杰,清华大学副教授刘知远主持。

这些AI实现难度如何?

首先,除了上文中的医疗机器人大白,我们再来看四个科幻电影里的AI场景。

《复仇者联盟》中的人机交互系统

微信图片_20191108112430.gif

《Her》中的情感伴侣

微信图片_20191108112436.gif

《机械公敌》中的自动驾驶

微信图片_20191108112440.gif

《流浪地球》中的同声传译

微信图片_20191108112444.gif

就上述五项技术的实现难度而言,张钹认为,手势交互相对容易一点,其次是智能诊断,再次是同声传译和自动驾驶,情感伴侣是最难的。

微信图片_20191108112448.jpg

张钹指出,做人工智能要利用好两项资源,一是知识和经验,二是数据。没有这两项资源,做不出人工智能。

需注意的是,单靠某一项资源为基础的AI模型,是有局限性的。一是机器在运用知识和经验方面,与人类相差较远;二是单纯数据驱动有不可靠、不可信、不安全、难以推广四大缺点,它的应用场合必须符合四个条件:1)信息基本上是完全确定的2)环境基本上是结构化的3)限定领域4)关键重要的地方不能用。

例如同声传译,一般情况下做一些翻译问题不大,出现错误也无伤大雅。但要知道,这种系统不可避免地会产生重大错误,因为它缺乏知识、缺乏常识。自动驾驶亦是如此。

微信图片_20191108112452.jpg

机器翻译在电影对话中的表现
因此,要把数据和知识结合起来,这样才能实现更好的系统。

朱松纯完全同意张钹的观点,同时指出,从整个“能与不能”来看,如果把任务定义清楚,手中也有数据,那基本都可以做。

文继荣提出异议:“我认为大白是最容易实现的,它只是医疗方面的信息助手。其次是手势交互和同声传译。自动驾驶对容错性的要求太高,除了技术难度以外,还要考虑用户接受度。情感伴侣实现难度最高,这里面包含了更复杂的东西,甚至涉及到了意识问题。”

黄铁军则认为,实现难度无法排序,但是这五个功能都能实现,甚至包括情感伴侣。我们可以构造一个全新的类脑智能系统,它有着人一样的神经系统,能在复杂环境里训练。

“我们能在自然系统中长出这些功能,为什么它不能呢?我认为这个在未来机器里面是完全有可能的。”

微信图片_20191108112550.gif

《机械公敌》中似乎产生了自我意识的机器人

那么,人工智能实现自我意识最基本的元素是什么?

张钹认为,由于我们对人类意识的了解很少,因此不可能对计算机意识进行科学的讨论。但人们可以从哲学的角度探讨这个问题。

“我们现在的智能,是在几亿年的进化中产生的。除了进化这条路之外,会不会还有别的路?如果有别的路,就有可能通过机器技术的不断提高来解决这个问题。我不反对去做这方面的研究,但不建议技术人员去争论这个问题。”

黄铁军的观点几乎与张钹完全不同:“我们可以在技术领域去讨论、实现这件事。宋代发明指南针的时候,没有人知道电磁学、磁场、地球,所有的理论知识都没有,但这不影响中国人发明指南针。我们要先去做这个自我意识系统,而不是先解释意识背后的原理问题。”

微信图片_20191108112554.jpg

黄铁军认为,产生自我意识,需具备两个必要条件:

(1)要有一个类似甚至超越人类神经系统的物理载体,它可以被训练、被改变、被调整。最简单的是拷贝人类神经系统,做一个电子的身体。

(2)要有一个复杂的环境,让它不断尝试失败和成功。其实这个很容易实现,因为地球本身就是一个很复杂的、很自然的环境。

有了这两个条件之后,就可以进行尝试和交互,并不断去训练。在此过程中,会产生无数种可能,甚至包括自我意识的产生。

抛开自我意识谈一些更具体的,比如说来了一些任务以后,能不能自动把任务分解,分解完以后针对不同的任务有一种大神经网络、小神经网络,甚至可以用自动机器学习的方法全部自动分解完以后做自动学习?是不是这样就可以实现技术层面的人工智能?

朱松纯提出:“我不否认这种路线。就像人在做加法和减法时,动用的是完全不同的脑区域,我们也可以用不同的芯片做不同的任务。至于子任务之间如何保持自洽性、完整性,要用另外的方法来做。”

黄铁军给出了否定的回答:就像图灵在论文“论可计算数及其在判定问题中的应用”中讲到的那样,不可能存在一台计算机,能自动完成所有可计算的过程,逻辑上就不通。

AI发展应该分级吗?

人工智能的发展不可能一蹴而就,如果有先后顺序,其发展应该有个分级吗?

自动驾驶的分级

文继荣认为,根据人工智能的灵活性、自适应性、可解释性,可以将AI分为5个层级:

Level 1:完成特定领域任务,可以处理不确定的输入,例如人脸识别。

Level 2:对行为结果可解释。

Level 3:具有多领域的自适应性,并且具有尝试推理等等,使得能够在多个领域来自由游走。

Level 4:具有一些创造性,例如写出一部真正的小说等。

Level 5:具有自我意识。

微信图片_20191108112602.jpg

朱松纯认为,这个分级在各个垂直应用行业是非常有意义的,因为目标和任务非常清楚。但在人工智能领域,这种通用的、整体的分级较难实现。

他指出:“到底人工智能包含多少个模块,包含多少个功能,在整体框架和维度没有说清楚之前,去分析的话可能引起很大的争论。”

张钹基本同意朱松纯的观点:“对自动驾驶这样的具体任务分级,可以帮助我们了解某一阶段究竟可以做到什么程度,对我们的研究是有意义的。但对整个人工智能进行分级,可能性比较小,难度较高,因为牵涉的面比较宽。”

黄铁军补充道:“我觉得除了功能维度以外,还要考虑性能维度,它可以颠覆我们对功能的分级。”

他举了个例子,在下围棋方面,机器人比人类要强大的多,但不能因此就说机器超越人类了,因为它靠的是速度。

AI技术安全和伦理的边界

近日,发生在杭州的“中国人脸识别第一案”引发舆论关注。

因动物园将进行人脸识别认证影响其年卡的使用,浙江理工大学特聘副教授郭兵向杭州富阳区人民法院提起诉讼。郭兵认为,收集面部特征等个人生物识别信息,一旦泄露、非法提供或者滥用将极易危害包括原告在内的消费者人身和财产安全。

10月28日,当地法院决定正式受理此案。

考虑到此事牵涉到人脸识别技术应用的权界问题,这起诉讼意义远大。

微信图片_20191108112606.jpg

高校大门装人脸识别门禁

几乎同时,浙江金华小学生头戴“金箍”上课的新闻也引发了争议。这款名为“赋思头环”的产品佩戴在头上后,能监测学生上课时的注意力情况,产生的数据会实时上传到老师的手机,再分发给家长。对此不少人质疑:被技术监控,小学生还有没有自由?

不可否认,AI时代,我们的隐私权正在被侵蚀。课堂上,视频系统会自动观察学生有没有认真听课;闯红灯,你的照片、姓名会被显示到大屏幕上。甚至,公共摄像头可以通过非常广的角度、尺度捕捉每个人的信息。

微信图片_20191108112611.jpg

在当下,技术和隐私之间的界限应该如何平衡?

张钹认为,这是个人工智能治理的问题,它涉及到三个层面,一是误用人工智能技术,二是滥用人工智能技术,三是有意利用人工智能技术进行国家与国家、集团与集团之间的对抗。这三个层面是不一样的,应采取不一样的治理方法。

微信图片_20191108112614.jpg

朱松纯认为,这个问题应该由社会来做决定,他举了个例子:“机场、火车站的人脸识别系统,给予了我们极大的方便。能不能做,要由公众来选择。如果公众通过法律不让你这样做,那就不能做。”

微信图片_20191108112618.jpg

2019年5月份,美国旧金山监事会通过一条新禁令,决定禁止该市所有单位使用人脸识别技术,包括警察局等政府部门。旧金山也成为全球首个推出人脸识别禁令的城市。

文继荣同意朱松纯的观点,同时补充道:“人工智能要可控,如果里面的可解释性、可控性解决不了,会很危险。”

黄铁军认为,AI技术嵌入人类社会,需有一定的适应过程。在此过程中,技术要适应人类社会,人类也要适当调整以适应技术,由此形成一个和谐的共同体。

“在现阶段,我们要从人的利益、幸福感出发,发展人工智能,让它造福、服务于人类。从长远来看,我认为要跳出以人为中心的惯性思维,考虑AI在地球、宇宙意义下的长远未来,使人与AI共处、共融。”

微信图片_20191108112622.jpg

多国家发表AI宣言,为时代难题指路

那么,技术安全和伦理的边界又在哪里?

朱松纯认为这个问题很难回答,“现在花1000美金就可以造一个杀人武器,有无人机和人脸识别摄像头就可以精准开枪,这是非常危险的。既然技术已经产生了,那么科学家无法阻止有心人利用技术作恶。最好的办法是让计算机具备一定的伦理,使它能考虑到事情的后果。”

微信图片_20191108112626.jpg

文继荣指出:“为什么大家会关心人工智能伦理?因为我们担心AI会去做一些人不能做、不敢做、不愿做的事情,这就是边界——如果让人工智能去做一个在人的伦理评价上有大问题的事情,就要三思一下了。”

最后,黄铁军补充道:“从发展边界上来说,人工智能的‘不能’远远没有到来,它还有巨大的探索空间。人的智力是有天花板的,我们可以去创造一个全新的系统,从物理的载体能力上超越我们,帮我们突破天花板。”

人工智能的“能与不能”,其实没有标准答案。很多AI技术、AI应用场景,还有很长的路要走。

[关于转载]:本文为“AMiner”官网文章。转载本文请联系原作者获取授权,转载仅限全文转载并保留文章标题及内容,不得删改、添加内容绕开原创保护,且文章开头必须注明:转自“AMiner”官网。谢谢您的合作。

二维码 扫码微信阅读
推荐阅读 更多