如何让机器人明辨是非:人工智能未来的道德走向

澎湃新闻特约撰稿 王芊霓
2018-05-25 14:28
来源:澎湃新闻

相信很多人都听过哲学家菲利帕·福特(Philippa Foot)于1967年提出的“电车难题”。50年来,电车难题有了很多版本。在无人驾驶已经出现的今天,当车祸无法避免时,无人驾驶汽车究竟应如何取舍,是优先保护马路上的儿童、还是宁愿撞人也要保护车内人员呢?

人类即将进入机器人时代,《科学》杂志有研究表明,随着机器习得类人的语言能力,它们也容易习得语言应用中根深蒂固的偏见,这种偏见如若被放大,后果不堪设想。还有预言称:人工智能系统在未来很可能摆脱人类监管,自主作出决定,甚至走上反抗人类的道路。

5月20日,北大博雅讲坛第129期活动“机器人能明辨是非吗——人工智能伦理道德的未来走向”正是要探讨这些问题。

温德尔·瓦拉赫

这次活动由北京大学出版社、北大博雅讲坛、博古睿研究院中国中心、当当联合主办。活动主讲嘉宾是《道德机器:如何让机器人明辨是非》的作者之一温德尔·瓦拉赫(Wendell Wallach)。中国社会科学院研究员刘钢、西安交通大学计算哲学实验室中方主任王小红也出席了活动。

瓦拉赫是享有国际声誉的人工智能和神经科学伦理学领域的专家。他主持耶鲁大学生物伦理学跨学科研究中心技术和伦理工作小组长达十余年,获得过全球技术网络协会(World Technology Network)颁发的2014年的伦理学奖,世界经济论坛任命他为2016-2018全球未来技术价值和政策委员会的联合主席。

瓦拉赫并不是站在未来学家的角度去猜想或者预测人工智能的未来,而是基于当前技术的现状去说明伦理决策能力的必要性。目前这些普遍被应用的自动金融系统、机器人照料者,以及机器人吸尘器已经能够影响人类的生活,并产生复杂而难以预料的伦理后果了。

他认为人工智能的道德发展将经历操作性道德、功能性道德,和充分的道德主体性三个阶段。其中操作性道德比较低端,是指道德已完全掌握在设计者和使用者手中;第二个阶段是功能性道德,稍微高端一些,因为这个阶段机器自身已经有能力响应道德挑战;第三个阶段就是计算机可以自己做道德决策的阶段,当然第三个阶段还是开放性的,哲学家、工程师们还需要探讨单单靠一台机器能否成为道德主体的问题。操作性道德和真正的道德主体之间还有着很多的空间。

他在《道德机器:如何让机器人明辨是非》一书中认为,虽然难有万全之策,但有可能建构一种人工道德智能体(AMAs),让人工智能具有基本的道德敏感性,逐步使人工智能和机器具备道德决策能力,并随着智能技术和人机交互的进步而进化、发展。这是一种自上而下式与自下而上式的混合道路,这样才能够使美德和特殊的情境相结合。

瓦拉赫对很多问题还保持开放态度,比如最近的关于道德心理学的实证研究,强调一个人与生俱来的身体或心理能力,而不是理性、情感社交、语义理解,以及意识,对人的道德决策都很重要,那么这些因素对于AMAs是不是本质性的因素呢?如果是的话,可否在计算机中实现?

博古睿研究院中国中心主任宋冰

博古睿研究院中国中心主任宋冰在致辞中说,以前计算机伦理强调的更多是被科学家和工程师的外部约束,行为规范,以及科技带来的外部或者溢出效应,比如隐私、财产权、防范病毒、提防骇客等。机器人伦理则是新的领域。温德尔·瓦拉赫这本书比较了两种植入伦理的方法,一个是由上至下,先把伦理理论规范编程,并将它作为基准来衡量各种选择道德的可接受性。另外一种方法是从上往下,给智能机器人创造体验和学习环境,让他们逐渐学会什么是可接受的道德规范和行为准则。她进一步表示,科学家要有人文关怀,反之亦然,哲学和社科专家也要有科学的精神。

《道德机器:如何让机器人明辨是非》的主要译者王小红发言说这本书是一本具有开创性的人工智能的百科全书。她指出,将人类已经成熟的伦理系统自上而下地灌输进机器人会出现不同伦理的矛盾和冲突,例如经典的阿西莫夫的机器人三大定律,被嵌入到一台计算机之后,就会产生许多伦理困境。而如果使用边沁的功利主义的方法,这种最可算法化的方法如何使最大多数人获得最大的幸福感呢?这也有问题,因为它的计算量往往是无限的。

阿西莫夫曾提出机器人三定律:一是机器人不得伤害人类,或因不作为使人类受到伤害;二是除非违背第一定律,机器人必须服从人类的命令;三是除非违背第一及第二定律,机器人必须保护自己。

在问答环节,有观众提问,现在出现了哪些不道德的人工智能,瓦拉赫回答说,“没有不道德的人工智能,只有不道德的意图。人工智能可能执行了有偏见的结果,但是这是因为输入的数据本身已经带有偏见了。”这种偏见主要是指种族主义、性别偏见等。还有同学提问,如何看待“类人脑”的开发,瓦拉赫认为人类目前还不够了解人的大脑究竟是如何工作的,所以他不认为人工神经网络能够完整的模仿人脑。

    责任编辑:石剑峰
    校对:丁晓