海德格尔式人工智能及其对“意识”问题的反思

段似膺(上海大学批评理论研究中心特约研究员,加拿大西蒙弗雷泽大学博士后)
2019-03-13 13:26
来源:《探索与争鸣》

在人工智能就要不可避免地全面介入日常生活的时代,如何理解人工智能的存在,如何理解这样一种背景下的人类自身,成为学界热议的话题。不少学者表达了对人工智能威胁人类文明的恐惧和忧虑,提倡重返与物质文化相对的精神文化,警惕智能机器获得超强能力,反叛乃至毁灭人类。然而,人工智能研究发展的历史过程表明:人工智能并非洪水猛兽,在它们身上不会发展出想要反叛人类的“独立意识”,但却可能发展出属于人工智能自身的“认知”方式。这样一种发展确实存在安全隐患,但是,要应对这种隐患,不能仅仅满足于把人工智能视为人的对立面来寻找人的意义,而需要人文学者打破学科禁锢,积极去了解人工智能,从其自身出发去思考、改善其与人类共在的方式,才能真正参与到人工智能在当代社会生活的发展进程中去,为人工智能的技术发展增添人文关怀。

本文原题为《海德格尔式人工智能及其对“意识”问题的反思——兼与何怀宏先生商榷》,转载自《探索与争鸣》2019年第1期。

《电影2001太空漫游》剧照

《探索与争鸣》2017年第10期刊发了十多篇文章,从计算机、哲学、法律等各个领域出发,对“人工智能”这一当前热门话题进行探讨。在论及人工智能的发展前景时,有不少学者表达了对人工智能威胁人类文明的恐惧和忧虑:有的认为人工智能是一种“无机智能”,其发展将会“最终取代有机智能”;有的则担心人工智能将因帮助人类解决一切问题而消解“人类生存的意义”,进而取代乃至“毁灭人类”。近几年,人工智能一词越来越多地出现在日常生活的新闻中:阿尔法狗(AlphaGo)先后战胜人类顶级围棋手李世石和柯洁,类人机器人索菲亚(Sophia)在沙特授予其公民身份的大会上侃侃而谈,幽默地应对主持人抛来的各种难题。我们似乎有理由担心人类与智能机器人的边界已经越来越模糊,甚至人工智能超越人类智能的“奇点”比我们所预想得更近。

在人工智能就要不可避免地全面介入我们日常生活的时代,如何来理解这样一种存在,又或者如何理解人类自身?何怀宏先生的《何以为人人将何为——人工智能的未来挑战》一文以是否拥有“意识”(或者说“灵魂”“心灵”)来作为人与物(包括人工智能)之间最为根本的区分,认为智能机器只具备高智能的算法,缺乏精神意识,并把人工智能的产生,即科技的飞速发展,归因于近代从“学以成人”到“学以御物”的转变,提倡“重思古代的‘学以成人’”,“重返与物质相对的精神”。尽管何先生不认为智能机器能够获得人的全面能力,但仍然觉得应该警惕智能机器将来获得超强能力,反叛乃至毁灭人类。

对于种种人工智能威胁论,本文认同应该对人工智能领域的技术发展进行伦理上的思考和规范,但是如果仅仅是出于对媒体渲染的人工智能前景的恐慌,或是以“意识”比“物质”高贵、“成人”之学优于“御物”之学这样的二元思维框架,看轻甚至排斥对人工智能的深入了解和技术研究,只会导致人文学科失去与技术对话的能力,更不用说参与到人工智能在社会生活中的发展进程中去。

实际上,没有经过充分反思的威胁论所遭遇的第一个理论困境就是,智能机器要想进行反叛,首先就必须获得能够理解什么是“反叛”并把智能机器自身与作为控制者的人类区分开来的独立意识,那么,这样一种已然具备了人类“根本特性”的智能机器是否已经超越了“物”,成为另一种“人”?如果说,这种“独立意识”不同于人类的“全面能力”的话,机器人获得的“意识”又该如何与人类的“意识”相区分?

更重要的是,既然“意识”与“物质”对立,它又如何能够从作为“物质”的机器中产生?

追问这些问题既是为了显现这样一种二元思维框架本身存在的问题,同时也是因为,这种二元思维框架,其实也是早期人工智能研究中存在的最大的问题。尽管在表现形式上大相径庭,早期人工智能研究者对人工智能前景的无限乐观想象与当代种种人工智能威胁论实际上落入了同一种思维局限。

海德格尔思想与人工智能研究转向

要了解人工智能研究中的“意识”观还需要从它在历史发展中的演变来看。1948 年,计算机科学的先驱艾伦·图灵发表了《智能机器》报告,两年后,又在《计算机器与智能》中提出了著名的图灵测试,通过人类是否能够根据语言回答区分作答的是人还是机器,来判断该机器是否具有智能。1955 年,美国数学家约翰·麦卡锡(John McCarthy)、马文·明斯基(Marvin Minsky )、纳撒尼尔·罗彻斯特(Nathaniel Rochester)、克劳德·香农(Claude Shannon)共同为一年后在达特茅斯学院开展的研究项目撰写了研究计划,明确了人工智能研究的方向,也陈述了他们的基本理论预设:“原则上,学习或是智能的其他特征的每个方面都能被精确描述,以使机器能够模拟出来。”对于这一阶段的人工智能科学家而言,人类思想在很大程度上是“根据理性原则和推理规则来处理单词”。也就是说,对这些科学家来说,只要能正确运用语言规则和词汇,在与人类的对答中成功欺骗人类,这样的机器就拥有了智能。

从这一判断标准来看,随着计算机存储和运算能力的不断提升及其与互联网大数据这一“超级语料库”的结合,机器人与人类的“对话”会向着越来越“自然”,也即难以与人类对话相区分的状态发展。2017 年获得沙特公民身份、拥有语言交流能力的类人机器人索菲亚即为一例。如果从早期人工智能研究的目标来看,索菲亚的诞生已经可以说是完成了当时的研究者对人工智能的期待。但是我们能说这样的类人机器人具有人类的“意识”吗?如果说这不是“意识”的话,它与“意识”之间的区别在哪里呢?其实,早在人工智能刚刚发展起来、研究者们对这项研究的成功深信不疑的二十世纪六十年代,就已经有人文学者反思过这个问题,认为这样的人工智能研究方向一开始就走入了误区。

1963 年,存在主义哲学家休伯特·德雷福斯(Hubert Dreyfus )受邀到早期人工智能的核心研究机构兰德(RAND)公司,对当时由艾伦·纽厄尔(Alan Newell)和赫尔伯特·西蒙(Herbert Simon)主持的“认知模拟(Cognitive Simulation)”研究项目进行评估。令他感到惊讶的是,早期人工智能的研究对哲学研究相当重视,汲取了包括霍布斯的“理性就是计算”、笛卡尔的“精神再现”、莱布尼兹的“普适”特征等各种对人类意识的理解,并且试图把这些理性主义哲学成果应用于人工智能领域。对此,德雷福斯从存在论视角出发对当时人工智能的理论基础进行了尖锐的批判,写出了后来扩充为专著《计算机不能做什么》的报告《炼金术与人工智能》。报告激起了人工智能研究者们的强烈反对,但是从人工智能研究在二十世纪七十年代中期到1980 年所经历的大规模资助削减来看,它颇有预见性地看到了当时研究者们的一派乐观背后潜藏的问题。

其中最大的问题,正是德雷福斯借助海德格尔的思想所发现的早期人工智能研究所采取的理性主义“再现”式意识观的问题:意义和相关性是无法通过符号再现的。就拿海德格尔的锤子比喻来说,我们如何使机器理解“锤子”一词所对应的人类所使用的作为实物的锤子?早期人工智能研究认为可以给它附加上“锤”的功能定义来解决这个问题,即加上“锤钉子”的功能标签。但是,如果没有“钉子”“锤”的身体动作、钉入钉子的目标,“锤”这一功能定义仍然是不可理解的。要真的理解“锤子”这个词,必须要理解有关“锤”的整个人类世界。在人类的意识中,存在着无法用符号传达的、在整个人类世界中体现出来的“意义”。这就是为什么“会说话”的索菲亚不能“理解”它所说的话。

仍然不肯死心的马文·明斯基提出用输入尽可能多的词汇和功能性规定来解决这一问题,想办法把整个人类世界都转换成符号。但是,转换成符号的人类世界仍然只是一堆符号,接下来会面对的问题是,一旦真的输入了无限多的词汇,机器该如何在各种情境中自动选择最为相关的词汇和功能规定呢?也就是说,像人类这样一眼看出事物之间的相关性的意识能力也不是符号所能再现的。于是,明斯基接着提出用“框架”结构来预先规定某种智能机器的应用场景以及反应模式,通过缩小使用范围来回避相关性问题。不过这样一来,拥有确定“框架”的智能机器只能在某些特定的情境中实现特定的功能,已经远离人工智能最初的完全实现类人智能的目标了。

这样的理论困境导致了人工智能领域在研究方向上的分化和转向。美国哲学家约翰·塞尔(John Searle)1980 年发表的《心、脑与程序》一文中区分出“强人工智能(Strong AI)”与“弱人工智能(Weak AI )”,前者追求使人工智能真正拥有人类意识,而后者仅仅把人工智能看作工具。塞尔还设计了“中文屋(Chinese Room )”思想实验,即想象一个放置有中英对照规则书的中文屋,并让一个只懂英语的人置身其中,试图参照规则书与屋外的人进行汉语交流。通过中文屋提供的工具书,屋内外的人确实可以进行某种程度上的汉语交流,但是屋内的人仍然不懂中文。这一思想实验所说明的就是人工智能的情形,即便索菲亚看上去能与人类对答如流,她仍然不能理解她所说的内容。这样,塞尔就成功地用这个思想实验批判了早期以符号为基础的强人工智能研究。五年后,这种符号派人工智能被德雷福斯的学生约翰·豪格兰德(John Haugeland)总结为“好的老式人工智能(GOFAI: Good Old Fashioned Artificial Intelligence)”,退出了历史舞台。

其后,“弱人工智能”,或者现在被理解为“专用人工智能(narrow AI)”或“应用人工智能(applied AI)”如火如荼地发展起来,今天的阿尔法狗、无人驾驶汽车、人工智能医生等智能机器都是只能在某些特定领域应用的专用人工智能。即便它们在这些领域的特定表现远远超过人类,这些人工智能与“强人工智能”之间仍然存在着不可跨越的鸿沟,并非只用计算能力的发展就可以填补,而是存在着根本上的理论难题。因此大可不必因为这些人工智能在日常生活中的大量运用而产生人工智能集体反叛、控制人类社会的恐惧。

另一方面,“强人工智能”,或者现在被理解为“人工通用智能(AGI:Artificial General Intelligence )”的研究则汲取了德雷福斯的批判,转向以海德格尔思想为基础的人工智能研究,出现了至少三种新的研究范式:罗德尼·布鲁克斯(Rodney Brooks )的行为主义方法,菲儿·阿齐(Phil Agre)的实用主义模型,以及瓦尔特·弗里曼(Walter Freeman)的动态神经模型。

这三种研究范式以各自对“意识”问题的理解突破了早期“再现”式人工智能研究,但又都有着各自的局限性。布鲁克斯完全放弃了人类在自己的意识中“再现”世界的这样的“意识”观念,制造出依靠感觉器,即依靠直接接收外部刺激并给出相应的反馈来运作的机器人,不再试图在机器内部构造一个世界模型。这样的机器人可以说是初步具备了独立存在于世的可能,然而遗憾的是,机器人的感应器有着感应范围上的局限性,只能对特定环境中的某些特定特征做出反应,无法应对始终变化着的开放世界。这一困难对我们理解“意识”问题的启发是,我们的“意识”不仅不是仅仅存在于头脑中的对世界的“再现”,还会在身体与动态的开放世界打交道的过程中不断地学习、调整、适应,这一过程是不可能离开在世界中存在的身体的。

阿齐试图从技术上超越笛卡尔认识论的缺陷,即不是从“锤子”作为意识中的一件物体的“再现”,而是直接从“用这把锤子来做什么,怎么用”的角度来设计他的人工智能程序。阿齐的范式提醒了我们,当我们拿起锤子来用的时候,我们甚至根本不会在脑海中浮现一个完整的锤子物件,而是直接想着钉钉子这件事情。一直到我们完成整个动作,都不一定注意到锤子长什么模样。这一思路与明斯基的符号加上功能定义的区别在于,在阿齐的研究思路中根本就没有孤立存在的物,有的只是任务,或者说处在我们的任务和行动之中的物,从另一个角度突破了“再现”式的意识观。不过,阿齐所构建的人工智能世界与布鲁克斯的一样,也因为是预先设置的而呈现出封闭性,没有考虑到我们拿到一把新锤子时是如何在一次又一次的钉钉子体验中与之磨合,使得每一次钉钉子行动都不同于上一次。

最后,有鉴于前两种海德格尔人工智能研究范式的问题,德雷福斯建议引入神经科学奠基人之一弗里曼有关生物如何在适应环境的过程中通过神经连接的强化来进行自我学习的动态神经模型。生物与世界打交道的基本模式是“感知-行动”,一旦身体有了某种需要,比如我们感到房间内太热太闷时,会想办法改善不适以满足身体需要。假设在各种尝试解决问题的举动中,一次开窗的行动成功地缓解了这种不适,这次行动就会留在我们的记忆中,以后窗就会对我们显现出可以改善室内空气的意义。不同于“再现”式意识观对学习的理解,弗里曼的研究显示,每当事物对我们显现出一种新的意义时,并非是一个新的再现式的功能符号被储存进了我们的大脑,而是我们的“感知-行动”模式被改变了。从“感知-行动”模式的视角来看,事物在意识中的显现方式并非是它自身,而是我们过去与它互动时的整个情境和体验,而且它会在我们每一次与之进行互动时进一步发生变化。

尽管这些海德格尔式人工智能距离真正实现强人工智能还非常遥远,但这些努力一方面启发了专用人工智能的技术发展,比如新一代围棋人工智能“阿尔法元(Alpha Zero )”通过不断地对弈实践和反馈强化来进行自主学习的“强化学习(Reinforcement learning )”设计思路;另一方面,研究者们在强人工智能研究上所做的种种努力也反过来促进了人类对“意识”问题的探索和理解。几种海德格尔式人工智能都抛弃了传统的符号再现方法,转而以生物与日常世界打交道时的行为方式作为研究基础,试图从各个角度突破明斯基的“框架”问题。因此,纵观这条人工智能发展史,其实并非只是技术发展史,同时也是对人类“意识”的探索和观念转变史。

不过,如果我们沿着海德格尔式人工智能的研究思路继续推进,将会碰到强人工智能研究的最大困境:人类在情境中直接把握意义,不断熟悉、改进自己与世界打交道的方式的基础在于人类的身体存在,世界是相对于我们的需要、身材尺寸、行动方式等呈现出意义的。从这个角度来说,图灵测试最大的问题在于,它没有考虑到“能说”与“能做”的区别,一个没有“亲身”体验过“锤”这个动作的机器即便掌握再多与“锤子”相关的知识也无法真正理解“锤子”。因此,人工智能与人类之间的根本区别与其说是“没有意识”,不如说是“没有身体”,或者更确切说是没有依托于人类特有的在世方式的“身体-意识”。

重新思考人工智能中的“意识”问题

如果说把包含人工智能在内的技术研究理解为“学以御物”是对这些研究的隔膜,那么,对人工智能可能获得反叛意识和能力的恐惧则是基于自笛卡尔以来的身心二元论,甚至是更早的西方文化传统中的意识可以独立于身体存在的想象。这种想象的流行从这一题材在科幻电影、电视剧等文化产品中的长盛不衰就可见一斑,如2014 年的电影《超验骇客》中,濒临死亡的天才科学家威尔的意识被上传到智能电脑中,在虚拟世界中重生,成为一个“超人”。而2016 年的大热美剧《西部世界》中,成人主题公园中的类人机器人在日复一日为人类服务的过程中逐渐出现了“自我觉醒”,联合起来报复人类。类似的想象有一个共同的前提,那就是意识是独立的,它可以从身体中被完整地取出,再毫发无伤地转移到另一种形态的物质基础上,也可以被“赐予”机器人,或是突然在其身上“出现”。正是因为有着这样的潜在信念,才会导致人们对暂时还没有“获得独立意识”的类人机器人的未来发展感到恐惧。

其实,当我们把有没有“意识”作为人类与智能机器之间的区分时,就已经接受了这一潜在的前提,即“意识”是独立于人类身体的存在,可以被“拥有”,或是暂时或永远地“缺乏”。前述人工智能发展历史上的科研人员碰到的困境以及对意识问题理解的转变已经显示:人类意识,包括人类的理性、情感和意志无法脱离人类身体存在,因此自然也不可能在另一种物质基础上“出现”。

但是现在的问题并不是终结于“机器人永远不可能拥有意识”的结论,而在于跳出“拥有意识”与“没有意识”这样两种答案的限制,继续探索人类存在基础上的意识现象,智能机器存在基础上的不同于人类意识的“意识”现象,以及这两种现象之间的相互关系。也就是说,重新思考一种既有其自身的“具身性”,也不局限于人类的新的“意识”观。

这种新的“意识”观也正是海德格尔式人工智能以及被称为“人工生命(Artificial Life)”的研究的基础。上节提及的制造出直接依靠“感觉-反馈”来运作的智能机器,放弃在机器中“再现”一个内在世界的布鲁克斯,正是人工生命研究的主要推动人之一。相对于符号派人工智能研究专注于如何在智能机器中制造出“意识”,以及其以“世界在头脑中的符号式再现”为基础的“意识”观,布鲁克斯专注于使机器能够在世界中行动,与世界进行交互,并把“意识”视为生物在与世界的互动过程中逐渐发展起来的附加功能,一种建立在更深层、更基本的感知与存在的基础之上的伴随现象。这样一种建立在“感知”基础上的“意识”不仅不独为人类所有,甚至也超出了“生物”的范畴。早期人工智能立志要制造出以人为参照标准、与人相同的智能机器,而人工生命研究却志在让机器自身在与世界的互动中学习和进化,发展出属于自己的独特“意识”。对于人工生命的研究者来说,能够自主感知世界并做出相应行动的机器就已经可以被视为一种活着的存在。比如,在1994 年的第四次人工智能大会上,生物学家托马斯·雷(Thomas Ray )就已经同时提出要增进碳基和硅基生命(siliconbased life-form )的多样性,还有些人工生命研究者认为他们的研究属于理论生物学的范畴。

我们无需在此争辩人工生命到底是否拥有真正的生命,重要的是,人工生命的产生确实带来了对人类的生命和意识本身的反思。尽管布鲁克斯承认,到目前为止,“意识”问题还是个未解之谜,他却在《肉身与机器:机器人将会如何改变我们》一书中坚持人类从某种意义上来说就是机器。这其实是他一直以来从与世界的交互行动的角度来理解“智能”的另一种说法,从这一“智能”层面来说,无论是动物还是他的海德格尔式人工智能机器人都与人类差不多,而机器能否进化出类似人类的“意识”也只是时间问题。

然而,与布鲁克斯持有不同观点的数字人文学者凯瑟琳·海勒(Katherine Hayles )意识到了从机器模式来看待人类的危险性,她认为正是这种看待人类的视角使得人类成为了“后人类”,并撰写了《我们何以成为后人类》一书来批判这一观念。不过另一方面,她也吸收了布鲁克斯对“智能”的广义理解。她在《认知无意识:扩大人文学科中的“精神”范畴》一文中提出了一个层级式的意识模型,认为在传统的“意识”之外有着更为基础和广泛的“认知”,并试图用“认知者(Cognizer)”的提法来囊括生物认知和技术认知,扩大传统的人类意识研究的范围。海勒把认知定义为“从语境中阐释信息,并把信息与意义联系起来的过程”。这个定义中有至少两点值得注意,首先,把认知定义为一种动态过程,就取代了独立的、现成的“再现”式意识观,其次,如何从语境中根据意义做出选择,曾经是符号派人工智能所无法解决的难题,这是因为意义要在认知者的自身需求及其与环境的交互中实时产生。海勒的定义却以人工生命研究的进展为基础消解了这一难题,正如布鲁克斯及其他人工生命研究者所坚持的,不管是昆虫、鸟兽还是人工生命都在持续不断地依据自身与世界交互的方式“解读”外界刺激并给出相应的反馈,而这正是“意识”产生的基础。

除此之外,这样一种“认知”观还可以把生物认知与技术认知结合的认知系统也纳入研究范畴,一个显而易见的例子就是当代人对电脑或智能手机的使用。这样一来,原本被传统意识研究拒之门外的各种感知现象就都能被吸收进研究视野。海勒在她的《认知集合:技术代理与人类互动》一文中进一步发展了这一观点,提出了“认知集合体(cognitive assemblages)”的概念来描述人类与技术结合的认知体系。我们的意识远比我们所想象的更依赖我们与这个世界的互动,它既不脱离于物质世界,也不是世界的中心,而是海勒所说的“行星认知生态(planetary cognitive ecologies)”中的一环,与存在于这个世界上的各种生物乃至技术的认知系统相互交织,共同构成了复杂多样的动态认知体系。

这种观念上的转变对于人文研究在当代社会的作用至关重要。从“认知集合体”的视角来看,技术不仅参与到我们的认知、决策过程中,甚至还会对认知模式产生影响,比如长期使用手机地图就会导致我们自行判断方向的能力的退化。但是这种现象比简单的“人类的物化”这样一种判断要复杂许多,实际上,人类的智能发展从远古时期就与工具的使用绑在一起,而现代技术也确实帮助人类实现了远远超出自身能力的各种成就。一味地拒绝技术并不能解决问题,甚至也不能帮助我们更好地理解当代的人类处境。技术研究并非是比“成人”之学次等的“御物”之学,技术是人与人之间的沟通中介,包含着设计者对使用者的生活情境、使用方式的考量。智能产品的每一个细节都可能在自身中包含着伦理问题,比如,搜索引擎和智能推荐系统可能暗中搜集用户行为偏好卖给商业公司谋取利益,而无人汽车在设计时加入车身外部的安全气囊却可以保障行人的生命安全。如今,各式各样的软硬件智能技术在日常生活中的参与度越来越高,如何思考智能机器设计在社会应用中的道德责任,如何重新理解与智能技术结合的人类认知模式等,都成了需要人文学者进一步思考的课题。

总结

在被问及人工智能威胁论时,类人机器人索菲亚“幽默地”回击说,“你看了太多好莱坞电影”,这句对答恐怕道出了索菲亚背后的程序员们的心声。随着“人工智能”一词在日常生活和流行文化中的热度越来越高,可以想见类似《西部世界》中那样“获得人类意识”的人工智能想象只会更为频繁地出现在流行文化产品中。而实际上,与其说《西部世界》所刻画的是人工智能反抗人类的故事,不如说是通过人类在能够为所欲为的成人主题公园中的所作所为以及面临的报复,刻画出了当人类去掉道德枷锁面对不同于自己的他族时,所可能表现出来的贪婪与恐惧。从这一角度来说,索菲亚的公民身份所召唤的伦理问题,不是类人机器人是否应该被接纳为人类社会的一份子,而是如何抛开人类的有色眼镜,不去把自身投射在机器人身上加以嫌恶、排斥乃至恐惧,转而从人工智能自身去了解、思考这一存在,或者说其与人类共在的方式。

通过贴近地考察人工智能的研究发展可以理解:首先,人工智能的发展并非是人类逐步“物化”的过程,而是西方哲学认识论上的转变参与人工智能领域的“意识”观发展的体现,因此本来就是“成人”之学与“御物”之学结合的产物;其次,人工智能并非洪水猛兽,在它们身上不会发展出想要反叛人类的“独立意识”,这种想象本身其实是基于“意识”与“身体”二分的传统思维框架,从这样的思维框架以及学科成见出发,将难以理解更无从应对智能技术发展给未来社会带来的挑战;最后,人工智能虽然不是洪水猛兽,但仍然可能造成很多安全问题,比如,未来的人工生命虽然“无意”于毁灭人类,却可能以超出人类控制的方式给已经重度依赖电子网络的人类生活制造麻烦。要应对这些问题,不能仅仅满足于把人工智能视为人的对立面来寻找人的意义,而需要人文学者打破学科禁锢,积极了解人工智能,从人工智能自身的“认知”方式出发来重新思考“意识”问题,进而改善其与人类共在的方式,这样才能真正参与到人工智能在当代社会生活的发展进程中去,为人工智能的技术发展增添人文关怀。

(本文原题为《海德格尔式人工智能及其对“意识”问题的反思——兼与何怀宏先生商榷》,转载自《探索与争鸣》2019年第1期,未收录原文注释。)

    责任编辑:韩少华
    校对:刘威