编者按:在不久前的电影《失控玩家》中,随着自我意识觉醒,影片主角——电子游戏的人工智能NPC(非玩家角色,Non-Player Character)爱上了来自现实世界的人类玩家。这一剧情设定再次将“人工智能是否会产生感情”的疑问抛置于大众面前。澎湃新闻整合了网友疑问,邀请复旦大学哲学学院徐英瑾教授加以解答,本期“谈治学”将澎湃问吧两期问答整理出来,供大家参考讨论。
徐英瑾
徐英瑾,复旦大学哲学学院教授,博士生导师,全国重大社科项目“基于信息技术哲学的当代认识论研究”首席专家,任中国知识论专业委员会副秘书长。多次获得上海市哲学社会科学优秀成果奖、全国高等院校优秀人文社会科学成果奖,被评为2009年“上海十大社科新人”。主要研究方向为人工智能哲学、英美分析哲学的研究。著有《心智、语言和机器——维特根斯坦哲学与人工智能哲学的对话》,是国内目前最全面深入的关于人工智能哲学的研究著作,于2015年获得中国首届“科史哲青年著作奖”。
人工智能的本质
人工智能目前有定义了吗?如果没有广泛认同的定义,哪来有意义的问题?
徐英瑾:人工智能之所以没有定义,是因为“智能”没有定义,这根本上是一个哲学问题。现在所讨论的智能不是人类/动物/外星人的智能,而是某种能够横跨人类和机器的普遍标准,而找到标准的难点就在于工业界本身无法提供如此大跨度的学术思考。对于此类问题的讨论在哲学界内部又恰好陷入巨大的纷争。在近代的西方哲学领域,对于人类智能本质的讨论就有经验派和唯理派两种意见:一种认为智能的本质在于经验归纳,另一种认为是先天原理对于经验的铺展。
这就导致当工程界人士需要哲学家提供高层次理论来告诉他们“什么是智能”时,却发现哲学史上也是一片争论。于是编程工作者就可能从哲学家的既有理论中寻找一种他们喜欢的理论去实践,由此再次深化了哲学界对于“智能”之本质的分歧。
人类智慧的构成要素是什么,可以说它的核心是语言和逻辑吗?人工智能目前离人类智慧水平还差什么?
徐英瑾:智慧的本质是对于外界的反应能力。随着反应的复杂方式提高,则智慧的水平不断提高,甚至机器或者外星人的智能也可以按照这个标准去衡量。具体而言,动物对外界反应的能力都是本能性的,而人类和外界打交道的能力有更多样的组合方式。比如人类可以用复杂的马基雅维利式的欺骗套路来欺骗可能的敌人。即使高级的动物比如猴子已经具备一些欺骗能力,但和人类相比还是小巫见大巫。智慧的本质既然遵照如上定义,那么为了让应对外界的反应方式变得相对复杂,就需要逻辑工具来使既有的知识模块丰富化,同时又需要通过语言来勾连人际之间的协作。所以逻辑和语言就成为了智慧的衍生品。
有一种错误思路认为,作为既存状态的逻辑和语言是人工智能要模仿的目标。但人工智能如果仅仅抓住逻辑和语言,而没有抓住“逻辑和语言得以产生是为了应付生存压力的需要”这一根本性问题,那么人工智能的研究就会走上歧路。早期符号AI之所以走上歧路,就是因为只追求末不追求本,只追求流不追求源。
程序员编代码写出来的游戏NPC可以算是人工智能吗?达到什么样的标准才能叫人工智能?目前“人工智能”这个词是否过于被滥用?
徐英瑾:游戏编程员用代码写出来的程序属于广义的人工智能。广义人工智能是指用计算机程序能够模拟出人类智能的一部分特征。电脑游戏里的程序能够模拟一部分人类的智能特征,比如在战争类的即时战略性游戏中,模拟人类玩家的一些特点,这当然是智能的体现。但它并不是所谓的通用人工智能,即不能模拟人类的完整智慧。通用人工智能目前尚未实现,目前市场上能够看到的都是专用人工智能。
机器的深度学习和人类智慧有什么差别呢?
徐英瑾:机器深度学习并非指像人类一样深度地学习,它的英文是deep learning,在日本语境中被译作“深层学习”。“深层学习”也许更符合其技术实质,即人工神经元网络的复杂化版本。
人工神经网络技术在80年代就已经比较成熟,但深度学习或者说深层学习在什么意义上对它进行复杂化?答案在于传统上人工神经元网络的中间信息处理层只有二至三层,而深度学习把它扩展到了四层以上甚至几十层,由此提高了性能。但究其根本,这一技术只是对于传统的人工神经元网络技术的拓展。具体情况请参考我所撰写的《人工智能哲学十五讲》。
《人工智能哲学十五讲》,徐英瑾著,北京大学出版社2021年07月
人工智能会产生感情吗?
机器人会有感情吗?如果长期和人相处,又有很强的学习能力,是否也可能变成有感情的机器?
徐英瑾:人工智能如果获得感情,它和人类所具有的感情既有相似点,又有不同点。相似之处是指人工智能和人类一样都会对外界的挑战做出回应。情绪本身就是认知主体在遭遇外界挑战时,为了更有效地应对这种挑战而做出的认知资源重新部署和调整。就这点而言,人工智能和人类的情绪有相似之处。
但当我们讨论情绪时,也需要考证其物理实现方式。从物理实现角度来看,人类之所以感到开心是因为多巴胺的分泌,感到不开心是因为其他化学物质的分泌。人类的生理机制无法被人工智能模拟。人工智能尽管有可能通过完全不同的物理机制实现认知资源的重新部署,但人类无法了解他们的具体感受是什么,甚至是否有感受。但人类也不能因为无法得知AI情绪的主观感受,就否认他们情绪的存在。
请问人工智能是否会产生反抗意识,以及正确理解人类的语句“有本事你杀了我”这种开玩笑的话?
徐英瑾:这个问题挺好。我认为如果是基于经验和数据处理的人工智能,将有能力辨别玩笑。因为它会通过话语和后续性事件之间的相互联系来判断。如果人工智能经过大量的数据训练,发现很多人说这句话但没有任何谋杀发生,则基本上就会判断这句话为反话。这其中也涉及日常语言处理中的难题,即如何让机器读出何为反讽、何为反话。
此外,基于经验运作的人工智能,会在不同的文化体中得到不同的数据。例如在一种文化体中,如果很多人所言与所行符合,那么人工智能很可能判定不是反话;但如果在另外一种文化体内,发现威胁性话语之后并没有出现与语言效果相匹配的威胁性行动,则会判断是反话。所以未来人工智能将很可能基于不同文化样态做出差异化的判断。
人工智能会学习人性中的恶吗?
徐英瑾:如果把“恶”广义地定义为某种不好的现象,我个人认为现在的人工智能已经在部分学习“恶”。举一个简单的例子:当前由于网络用语中出现很多错别字,而语言处理往往基于大数据,因此机器也会在学习之后导致跟着写错。尽管写错别字的性质并不严重,但也已经是某种意义上对于规范的扭曲,足以让人窥见端倪——即现有的人工智能是对于人类行为的某种平均化处理,基于数据来进行归纳、系统地模拟学习,甚至放大人类既有行为中的失范之处。因此可以说基于大数据的人工智能必然会出现学习恶的现象。
人工智能的突破
量子计算机会成为人工智能的突破口吗?
徐英瑾:量子计算实际上有两种含义。一种含义,是在硬件层面上做出具有量子效应的计算机,由于硬件上不同于传统冯诺依曼机,因此机器的造价将极为惊人,很难大规模普及。第二种含义,是指在传统计算机上模拟量子效应,相对来说造价较低。
但量子效应是否能实现人工智能实际上是需要全面考量的问题。量子计算在执行某些任务时比传统计算机效率更高,但问题是怎样才能使其变成在通用机上也可普遍编程,这需要一般性的理论来证实。尽管量子效应弥漫在整个物理世界中,但人工智能机器的架桥理论目前非常难。即使是在人类智能的研究中,人类的物质构成基底是否有量子效应也仍待证实。此外怎样从低层次一层层达到高层功能也是难题。正因为架桥理论在人类领域尚未完成,因此在人工智能机器领域想要实现则更为遥远。
自动驾驶是不是人工智能一直在研究的领域?人工智能突破难点到底在哪?
徐英瑾:自动驾驶的民用领域比军用领域更为复杂,地面车辆的自动驾驶比航空器的自动驾驶更复杂。两架飞机即使差了一公里也能知道提前避开。但在地面行驶时,不可能看到一辆大卡车距离一公里时就开始避让,相反得在两者相差几米时做出迅速反应。正因为地面驾驶需要在短时空区间里做出迅速反应,因此对于技术细节的要求非常高。
更重要的是,自动驾驶技术所模拟的是人工智能本就不善模拟的一种能力,即人类驾驶员和汽车的操纵杆以及方向盘之间的身体感受。这就类似于模拟完全意义上的打乒乓球,甚至比模拟打乒乓球更难。因为乒乓球的游戏规则相对比较确定,因此机器人打乒乓球可以完成得不错。而自动驾驶的环境中面临非常复杂的驾驶环境,甚至会遭遇完全不遵循驾驶套路的情况,所以难度更高,需要很多基础学科的突破。
人工智能是否有可能进入政治领域?比如行政指引甚至社会决策?
徐英瑾:如果广义的政治包括法律问题的话,中国已经有人工智能部分介入法律领域的情况。比如人工智能会通过比对全国数据库来判断法律的处理是否正当,目的是衡量法律裁决的公正性。但这种运用完全是工具性质的。
由于政治活动是一种非常高超的活动,它的本质更偏向艺术,而不只是科学。对于政治活动中决策力度的把控,需要当事人根据当时环境中的诸多微妙因素进行感知,目前人工智能还做不到这一点。
人工智能会让人类失业吗?
机器一旦学会深度学习,其预判和学习结果往往比人类精准得多,这是否意味着人类可能大规模失业?
徐英瑾:深度学习依赖于大量数据。有人担心深度学习的推广会让人类失业,但实际上外部情况经常发生变化。即深度学习所依赖的数据总和往往是过时的数据。对于瞬息万变的崭新情况,人类能够基于自己的灵光乍现进行迅速反应,而机器则不具备这种能力。只要人类保持自己的创造性,就不用担心深度学习取代我们的工作。
人工智能会在脱离人类监管的前提下有任何行为吗?理论上有这种可能性吗?
徐英瑾:人工智能在脱离人类监管的情况下自主产生行为,这可能是真正意义上“智能”的标志之一。我认为这一点在原则上是可以实现的,只不过现在基于大数据和规则的人工智能暂时没办法实现。倘若要实现这一点,需要建立在一个重要的学术前提之上:即需要对人类的心智进行普遍化的建模,且这种建模必须能够兼顾机器执行特征。如果建模的成果无法存在,那么具有自主性的人工智能研制就会失去其应有的蓝图。
以前也早已有各种机器人在投入使用,比如扫地机器人、商场引路机器人等,只不过不是人形。为什么马斯克发明的人形机器人引发激烈讨论?
徐英瑾:人形机器人之所以引发关注,是因为它的外观能够引发人类的心理投射,很易引起共情。人类对于任何人形物件产生共情,这是自然的心理倾向。但从纯粹的技术角度上来看,不能认为人型机器人就代表内部智慧更高级。类似于在电影《星球大战》中,不做成人形的机器人可能具有很高的智慧,相反人形机器人本身的智慧与内部配置反而有可能非常低。
如果说人类进化的底层逻辑是生存,未来人工智能技术迭代的底层逻辑会是什么?如果是获得资源不断学习和发展,有一天会和人类生存相冲突吗?
徐英瑾:我认为未来人工智能的真正底层逻辑仍然是生存,与人类的不同点在于它们有可能需要维持的是电量安全、记忆库安全等。虽然人工智能是在另一个硅基生命体意义上的生存,但其抽象逻辑和人类相同。
那么人工智能是否会和人类产生冲突呢?作为硅基存在体,它们没有对食物和水的需求,因此不会在这些方面和人类产生直接冲突。但或许会在能源问题上与人类相冲突,这种可能性无法被忽略。至于是否一定会产生冲突,又取决于人类技术能否为全球提供足够的能源、核聚变技术未来能否投入使用等。因此这是牵涉到众多参数的巨型方程,当下很难预估未来情况如何。
原文载于“澎湃新闻”官网“澎湃问吧”