中文
周一谈治学首页  学生园地  周一谈治学

第117期丨王国豫:人工智能伦理--寻找人工智能的可行性边界

时间:2019-11-25

编者按11月16日,第四届复旦生命伦理论坛在复旦大学落下帷幕。本次论坛以“人工智能与大数据背景下的生命伦理学”为主题,来自各个领域的专家和学者带来一场精彩的学术盛宴。人工智能的伦理问题有何特殊性?如何看待“机器人统治人类”的观点?前段时间大火的换脸技术内含什么冲突?本期“周一谈治学”中,我们将一同走进复旦大学哲学学院王国豫教授关于“人工智能可行性边界”的思考,聚焦热点,思索未来。

王国豫:复旦大学哲学学院教授,复旦大学生命医学伦理研究中心、复旦大学应用伦理学研究中心主任,研究领域为一般伦理学,科学技术与工程伦理学,环境伦理学;德国哲学,科学技术与文化等。

本文授权转载自DeepTech(ID:deeptechchina)

是王国豫教授在CNCC大会后接受DeepTech的专访内容

Q1、你一直专注于技术伦理学的相关问题,应该见证了很多新兴技术的兴起过程以及与之相伴而生的伦理问题。那么你觉得人工智能的伦理问题相比于其他技术的伦理问题有什么特殊性?

我以为,人工智能既有其本身特殊的伦理问题,又有其他新兴技术中共有的一些伦理问题。相较于其它新兴技术,当前的人工智能算法与系统具有更高的自主性,更有可能极大地改变人类的未来,因而在伦理问题方面吸引了更多的社会关注。在我看来,人工智能并不是单一的技术,而是新兴技术体系中的重要分支,是推动新一代工业革命的关键使能技术enabling technology)。人工智能要落地,必须和其他技术相结合,比如人工智能与汽车制造结合,产生了自动驾驶或无人驾驶技术;和自动控制、遥感、机械制造等技术结合产生了智能机器人;和医疗技术结合产生了智能诊疗技术等等。目前人工智能的核心算法强烈依赖于数据驱动,可以说没有大数据技术就没有当前的人工智能技术。因此,某种意义上说,人工智能技术是一种高级的系统性技术或者技术系统。

从这个定义出发,那么我们就可以说,人工智能的伦理问题也不是单一的。它既有由于技术较高的自主性所带来的特殊伦理问题,比如说算法伦理问题,又有其他新兴技术中共有的伦理问题,比如说隐私问题、责任归属问题等。算法与其他技术一样具有价值负载,在算法设计中选择什么参数、优先考虑哪些价值和利益,与设计者的道德敏感性和价值取向有很大的相关性。但与此同时,算法又会放大甚至有可能根据自身的逻辑运算作出抉择。设计者并不能完全主宰算法的运行,也不可能预测更不能保证算法结果在道德上是可接受的。这也是目前争议比较大的智能主体是否可以看作是道德主体的问题。这个问题将随着算法能力的增强愈加突出,也影响着责任的归属和认定。

比如说,当前讨论比较多的自动驾驶如果撞了人,谁该为事故负责任的问题。这与一般的责任认定就不完全一样,因为这里涉及到一方面自动驾驶汽车具有能动性、自主性,方向盘和刹车掌握在智能机器手中;但另一方面,自动驾驶汽车本身又不是道德主体,不可能承担道德责任。于是,我们就要追问谁该为事故负责?是设计者还是自动驾驶车辆的拥有者?是工程师的责任、企业的责任,还是政府和管理工作者的责任?这些都与人工智能的特殊性相关,但这个问题同时又涉及更一般性的技术伦理问题:技术伦理学如何面对技术的不确定性,或者说我们如何与技术的不确定性交往的问题。

Q2、你怎么看“人工智能机器人产生自我意识之后,机器人将统治人类”这个观点?你觉得为什么现在大家对这个问题忧虑感和恐惧感要远远超过以前?

这个问题的前一半是一个假设,即假设人工智能机器人将会产生自我意识,后一半是推测,推测“机器人将统治人类”。这是一个典型的“If and then”的推测性论断。这使我想起捷克作家卡雷尔•恰佩克的《罗素姆的万能机器人》中的情节。大家所熟知的机器人Robot一词便源于该剧。Robot这个词由捷克文Robota和波兰文Robotnik结合而来,前者为“劳役、苦工”之意,后者为“工人”之意,合起来就被翻译为“被奴役的工人、奴隶”。剧中的机器人一开始还没有意识、没有感觉,他们替代了人类的一切劳动。后来机器人工厂里的一位工程师悄悄给机器人“注入”了“灵魂”,让机器人具有了感知痛苦的能力,随后逐渐有了自我意识。不幸的是,机器人觉醒后的第一个念头就是反抗和攻击。这可能是最早的关于机器人统治人类的科幻文学作品,后来类似的作品越来越多。这样一种叙事带给人们的自然是对于人工智能的恐惧和担忧。

技术伦理缘于人们对技术的恐惧和担忧。所以,半个多世纪以前,艾萨克•阿西莫夫就提出需要用伦理规则来引导机器人工智能的行为:即机器人不得伤害人类,或因不作为(袖手旁观)使人类受到伤害;除非违背第一法则,机器人必须服从人类的命令;在不违背第一及第二法则下,机器人必须保护自己。机器人不得伤害人类这族群,或因不作为(袖手旁观)使人类这族群受到伤害。(第零法则,1985)

那么,人工智能机器人有没有可能获得自我意识呢?主张强人工智能的人认为是一定的,只不过是时间问题,库兹维尔就预言在2045年人与机器将深度融合,人工智能将超过人类本身,达到“奇点”。我不知道人工智能是否一定会产生自我意识,人类是否一定乐意看到或者说允许人工智能产生自我意识,以及什么时候人工智能将产生自我意识,这些我都无法预测,但人工智能一旦获得了自我意识是否会“从奴隶到将军”?我觉得如果我们不早作准备,理论上是有可能的。当然,我并不是像科幻小说家那样设想一个由机器人统治的国家。而是从人的自主性和自由的丧失的角度来看。

事实上,我们今天已经感受到了人工智能在增强人的能力和行为自由的同时,使得人越来越依赖于它,这种依赖性也可以解释为人的独立性的丧失。就像黑格尔在《精神现象学》一书中谈到“主人和奴隶”关系时所指出的那样,主人和奴隶彼此被对方定义:一方面,主人因为奴隶的存在而成为主人,另一方面,一旦获得了统治者身份,主人得到的并不是独立意识而是依赖意识,他没有因此而确定他真实的自我,反而促使奴隶超越了主人。举个通俗的例子吧,比如我们今天所使用的智能导航,使得我们可以安全地避开和绕过各种路况不佳的大路,我们会按照它所指引的路线到达目的地。在这个意义上它是一种赋能技术。我们相信这些信息来自于一个实时掌握一切动态的导航,导航对路上的一切了如指掌。但只要我们担心放弃信息会绕路,并相信接受信息便可以很快到达目的地,那么我们就开始依赖信息,这时,信息对人的“控制力”便显现出来。

关于后一个问题:为什么公众对这个问题的忧虑感和恐惧感要远远超过以前?我想首先这是因为近几年人工智能本身的飞速发展,使得人们已经强烈地感受到了人工智能技术系统对我们生活世界的改变。特别是2016年3月AlphaGo战胜了人类围棋选手李世石以后,人们在惊奇于人工智能的强大的同时,一面是欢呼,一面是惊恐和担忧它将如何改变世界、改变我们的生活。而一些像霍金、比尔·盖茨、马斯克这样的名人对人工智能的威胁的预测,也会加剧人们的恐慌。比如霍金就认为,“一旦机器人达到能够自我进化的关键阶段,我们无法预测它们的目标是否还与人类相同”。还有些媒体经常传播和夸大一些人工智能的进展,喜欢用诸如人工智能是魔鬼还是天使之类耸人听闻的字眼作为标题。这样的叙事方式也加大了人们对不断发展的人工智能的担忧。

Q3、前段时间大火的换脸技术,不管是国外的deepfake还是国内的ZAO,都掀起了一阵狂热。你觉得现在的这类AI应用能在很短的时间里得到广泛的传播,是不是部分因为技术发展速度过快、门槛降低?没有约束的科技是危险的,那么如何才能在适度的约束中尽可能地释放技术的创新性?伦理与科技政策之间的冲突应该如何协调呢?

我想这类换脸技术的迅速传播一方面是因为技术本身的门槛比较低,另一方面,也和人们的好奇心相关。我在朋友圈和微信群中也看到有类似的虽然不是换脸视频,但是一种换脸的APP,你只要上传一张或者当场拍一张照片后,就可以得到你想要的不同时代、不同形象的照片。我看很多人乐于玩这个游戏,完全是出于好奇心。但可能大部分人都不知道,如此一来,我们的“脸谱”就作为数据被后台保存了下来,这些数据将被如何处理、派作何用我们一般是不知道的,也很少被明确告知。如果这些数据被恶意利用,那将会带来对本人也会对他人和社会的极大的危害。我们知道现在很多银行甚至入户门都是用的人脸来验证人的身份。这些人脸数据就像人的指纹一样,是一个人的重要身份认同的标志。一旦落入不法分子手中,后果不堪设想。

现在的问题是我们在立法和政策规约方面的步伐还有点慢。技术创新并不意味着可以为所欲为。技术创新的目的是为了美好生活,如果这一创新带来的不是美好生活,而是破坏了美好生活应有的秩序,危害他人,损害了公共利益,那这样的创新就不是我们应该接受和拥抱的。所以,我们应该坚持负责任的创新,负责任创新关注的不仅是创新所带来的经济效益,也同时关注创新的社会效益和企业的社会责任。对应的,政府相关部门应该推动相关研究,尽快出台相关法律法规,对类似的技术进行分类管理,对技术创新进行合理引导,而对有些违背了社会公共利益、侵害他人权利的行为坚决制止。

Q4、为了尽量使“科技向善”,你觉得社会中的不同层级需要做出哪些努力?

按照亚里士多德的说法,每一种技艺都是以某种善为目的的。但是,现代技术的一个特点在于它的不确定性。这种不确定性贯穿在现代科技从目的到方法和结果的全过程中。面对科技的不确定性,不仅是作为科技工作者和企业有责任,政府的主管部门有责任,人文学者、媒体和公众也承担着一定的责任。

作为从事科技研发的科学家和工程师,他们是技术的创造者和生产者,最了解技术本身的特性和潜在风险,有责任向公众透明地解释和及时通报其潜在的风险和不确定性。科技研发的管理部门和政策决策者,包括政治家和企业家,有责任和科技工作者、人文学者等一起对科技的发展进行风险预测和伦理评估,由于科技活动直接渗透在政治活动中,科技决策也是政治决策。科技政策是科技发展的催化剂,可以通过适当的政策调节科技发展的轨迹,必要时可以发出警示,人文科学和社会科学工作者也应该关注科技发展前沿的社会影响,为政府制定公众可以接受的科技政策提供支持和依据,主流媒体和公共媒体应该深入了解科技本身的特性,而不是以制造新闻为目的。最后,科技的发展离不开公众的支持。公众主动参与科技的社会治理,是确保现代科技向善的一个最重要的力量。

Q5、你在今年CNCC大会上的报告题目是《人工智能伦理:从可能性推测走向可行性探索》,能否分享一下你选择以此为题的初衷?除了伦理方面的内容之外,此次大会还有哪些论坛或者讲者是你比较感兴趣的?

非常感谢大会给我这个机会,和大家一起分享我对人工智能伦理的一点思考。人工智能伦理属于技术伦理的范畴,虽然正如我们前面指出的那样有它特殊的地方,但是我认为人工智能伦理和其他技术伦理学的分支一样,我们需要面对的核心问题是人工智能技术系统在安全、自由和公正等方面所带来的不确定性问题。选择这个题目的初衷就是希望能够和大家一起探讨我们应该如何在人工智能如火如荼展开的同时,找到一条促进人工智能造福于人类,同时又能够有效地避免人工智能带来的负面后果的路径和方法。

前面我也说到,人工智能伦理问题的治理,既不仅仅是伦理学家的事情,也不仅仅是科学家和工程师的事情,需要更多地跨学科的合作。在这方面,我们复旦大学科技伦理与社会治理研究中心特别期待向人工智能专家们学习,与人工智能专家一起,更加深入地探讨多途径、全方位推动人工智能伦理问题治理的方法与路径。所以,我会在会议期间尽可能地去不同的论坛进行学习。