徐贲:人、拟人、机器人,人类自由的扩展

徐贲
2020-02-19 13:35
来源:《人文的互联网:数码时代的读写与知识》,北京大学出版社

“机器人权利”在许多人听起来有些奇怪。他们的直接反应是:机器人是机器啊,机器又不是人,怎么还有“权利”呢?人还没有权利呢,谈什么机器人权利,纯粹是瞎扯。

伦理讨论中的机器人权利当然不是指为机器人要求自由、平等的权利,或者机器人能像人一样投票、表决、到法院出庭、上访或上诉,而是指不无缘无故地被暴力损坏。麻省理工学院人工智能研究院凯特·达林(Kate Darling)称之为一种“二等权利”(second-order rights),那就是受保护和不受侵害。这种权利最方便的比照就是动物权利,在美国,法律规定要保护动物不受非人道对待,“动物保护法”(the Animal Welfare Act)规定人道的动物饲养、繁殖、屠宰、研究等等。你家里养的猫当然不能投票、不能把大小便的沙盘当作它的私有财产,但如果你打它,或者去旅游不给它喂食,那你的行为就是违法的,邻居会打电话叫警察上你的门。

有人会说,猫会觉得疼,会觉得饿,是有感觉的动物,而机器人则不会。无感觉的是物件,是工具。这的确是一个理由,至于合理不合理,则要看每个人不同的理解。威尔士的《莫罗博士的岛》里已经提到了这个问题,莫罗博士把野兽放在手术台上做“变人”的手术,普兰迪克指责他太残忍,因为手术造成野兽的身体剧痛,太不人道。莫罗博士对他解释说,疼痛是一种生理的而不是必然的身体反应。身体的有些部位并不会感觉疼痛(一面说,一面拿刀子扎自己的腿做示范)。他所做的是“无痛手术”,动物既无痛苦,他也就不残忍,因此不存在是否人道的问题。现在用“无痛处决”的办法来杀死罪犯,也是尽量回避“残忍”这个人道问题。

然而,在“致痛”之外,还有没有保护动物的理由呢?还是有的,那就是,一个虐待和故意伤害动物的人,在别的情况下也更有可能对人这么做。而且,一个社会里,这样的人越多,社会人道道德水准就越低。2010年11月19日,有一个虐待动物的视频报道,一个年轻女子用玻璃板盖住兔子,然后坐在上面,直到把兔子弄死。整个过程中,这位虐待者神情愉快,而旁观者也同样轻松自在。不久后,又一虐兔视频出现在网上。4名女子将一白兔来回踢打后踩踏致死,其中之一正是此前虐兔的女子。这些场面引发许多网友的愤怒,批评中连带提到了养黑熊一天2次抽取胆汁的惨不忍睹和扑杀流浪狗事件。

可见,就算在一个动物保护不受重视的国家,普通人的道德观中也还是有人道价值观在起作用。对于动物是如此,对于机器人也是如此。

2015年,搭车机器人HitchBot在美国的遭遇引起了甚至比虐兔事件更广泛的公众关注和愤怒。Hitchbot是一个6岁孩子大小的机器人,由加拿大人史密斯(David Smith)和泽勒(Frauke Zeller)等人开发,能够进行简单的谈话、定位,内置摄像机。它本身不会走路,必须依靠好心陌生人让它搭乘顺风车周游各处。它的主要定位是作为一款旅行聊天伙伴,旨在试验机器人在社交方面是否能够与人们互动,以及人们是否愿意帮助该机器人。它可以进行一些简单的谈话,而且还可以用GPS进行定位,机器人身体里内嵌了摄像机,每20分钟拍摄一次以记录旅程,还在社交媒体实时直播自己的动态。机器人Hitchbot从2014年7月27日开始旅程。它被放在公路旁边,然后机器人会做出搭车通用的拇指手势等待好心的司机来载它一程。它在网络日记中的第一页写道,“我的旅途成功与否依赖于沿途那些善良的人们,我期望能够一路顺风”。

Hitchbot

人类的善良是这个机器人能顺利旅行的条件,但是,人并不都是善良的。2015年7月31日,它的旅途结束在费城。它被杀害了,而且死得很惨(被肢解和斩首)。它在社交网络留下的最后遗言是:“天啊,我的身体被破坏了,但我会活着回家并与朋友们相聚的。我想有些时候确实会发生不好的事情,我的旅途已经走到了尽头,但我对人类的爱永远不会变淡,感谢所有小伙伴。”这件事让许多人感到伤心和愤怒,甚至展开了人肉搜索,将作案者的影像在网上曝光。

就算有人不为搭车机器人被毁感到伤心,也不会对这件事或作案者的动机或行为感到高兴。为什么要对这个机器人下如此毒手?任何一个社会里,无缘无故的暴力都是一件令人讨厌和愤怒的事情。尽管Hitchbot是一个机器人,但许多人能体会它遭受暴力的处境和所受的伤害。这说明,损害一个智能机器人与损毁一个垃圾桶或者打碎一盏路灯是不同的。这更类似于一只猫、一只兔子被人残害的情形。

机器人是一个广泛多样的领域,保护机器人的对象是“社会性机器人”(social robots)。凯特·达林(Kate Darling)在《将法律保护扩大到社会机器人》(Extending Legal Rights to Social Robots)一文中对机器人的定义是,“有身体形状的自动主体,能在社会层次上与人类互动”。这是一种与人类有社会性接触,让人联想到生命体的机器人,如仿动物或人的玩具、伴侣、助手,不包括“用于工业或商业用途的非社会性机器人”(如自动工具或售货机)。这样的机器人有与人交流的功能,“能接受指示、显示适应性的学习能力、能模仿不同的情绪状态”。人们熟悉的社会性机器人包括:索尼的AIBO机器狗和Innovo Labs的Pleo机器恐龙,法国Aldebaran机器人公司研发的NAO(一种自主的可编程仿真机器人),等等。

许多人对这样的社会机器人会产生“感情”或“依恋之情”。达林在她组织的一次实验中让参加实验者跟Pleo一起玩,Pleo是一种专为儿童设计的绿色玩具恐龙,用柔软的材质制成,闪烁着令人信任的目光,一举一动都仿佛蕴含深情。当你从盒子里拿出这样的恐龙时,它就像一只出生不久、懵懂无助的小狗——它还不会走路,你必须教它认识周围的世界。在参与者们与这些可爱的小恐龙玩耍嬉戏了一个小时后,达林给他们提供了刀子、斧子和其他武器,下令他们虐待和肢解这些玩具。接下来的事远远超出了她的想象。参与者们都拒绝用提供给他们的凶器对机器恐龙下手。达林对他们说,只有杀死别人的恐龙才能保住自己的恐龙。但他们还是不愿动手。她又对他们说,除非有人主动杀死一个机器恐龙,否则所有的机器恐龙都会遭到屠杀。经过一番交涉后,一位男士很不情愿地拿着斧子站了出来,对着一个Pleo砍了下去。达林回忆道,经历了这个残忍的场景,整个房间都鸦雀无声,时间长达数秒。所有人都对这样强烈的情绪感到惊讶。

显然,对Pleo的不舍不是普通的“恋物”,那种对旧物件或特别珍爱之物的眷念。人对社会性机器人的依恋和感情要强烈得多。达林认为,这种依恋和感情效果主要有三个原因。第一,人类的头脑天生就对能动的实体感兴趣,一幅画或一张图片无论如何栩栩如生,都不及眼前的那个真东西。第二,人关注能自行活动的东西,机器人在你面前动来动去,你自然而然会对它发生兴趣。人对宠物就是这样。

这两点归结为第三个最重要的原因,那就是人类有“拟人”倾向(Anthropomorphism)。这又叫“拟人法”(personification)或“智慧化”。人很容易把人类的形态、外观、特征、情感、性格特质投射或套用到非人类的生物、物品、自然或超自然现象(或称“非智慧体”)。“拟人”是人与机器人能在情感层面上互动的重要原因。

虽然许多研究者都同意,人可能对社会性机器人产生依赖或依恋,但他们对这个事实的态度却有很大的分歧。持批评意见者认为,机器人不是人,把人的感情或情绪寄托于机器是一种人的异化,这种以假乱真会对人造成伤害或者根本就是已经有了伤害的结果。还有批评者认为,对机器人的依恋会让机器人成为一种对人的操控力量或手段,例如,如果你依恋机器人,在感情上无法割舍,那么,设计或制造者就可以通过“更新”“升级”来敲诈你。

这些当然都是可能的,但是达林认为,“在情感上依恋机器人,并不一定具有本质的负面性,一般也不是一件遭非议的事情。……用作医疗设施的Paroseal对治疗痴呆症病人证明是有效的。‘NAO下一代’机器人也能成功地帮助自闭症儿童”。这样的例子在医疗和教育领域里还有不少。

人类因为对机器人能够产生依恋或其他好感,所以会更加不愿意伤害它们,更加愿意爱护或保护它们。2007年,机器人恐龙(Pleo)投入市场,网上开始出现“折磨Pleo”的视频。有的人看来觉得“有趣”,但许多人为此伤心难过,也很愤怒。尽管机器人是没有感觉的“机器”,但许多人仍然觉得折磨机器人是错误的。对此,达林的解释是,“人们想要让机器人同伴免受‘虐待’,一个理由是维护好的社会价值。家里有机器宠物的幼儿父母,在看到幼儿踢这个宠物或以其他方式虐待它的时候,一般会加以制止。当然,这可能是不愿意损坏这个物品(经常价格不菲),但另一个理由是不愿意让孩子在其他情形下也做出相似的伤害性行为。由于机器人是仿真的,孩子很容易把可以踢机器人等同为也可以踢家里的猫、狗,甚至别的孩子”。在一种环境下做出伤害性行为,哪怕对象没有感觉或生命,在其他环境中也就相对容易有同样或类似的行为。因此,让幼儿学会保护机器人,也就是学会避免伤害。这是一个好的社会价值,在这个意义上说,保护机器人也是保护人类自己。

在现实生活中,许多人并不明白这个道理。不要说是对待没有感觉、没有生命的机器人如此,对动物甚至对人也是这样。以前宣传“对待敌人要像严冬一样冷酷无情”,不明白“冷酷无情”并不是一种好的社会价值。对“敌人”残酷无情的人在其他的情况下,对朋友或同志也会是残酷无情的。不尊重“敌人”的生命,也是对生命本身的漠视。动物保护主义者正是从“尊重生命”来提出自己的道义立场的。

从20世纪70年代开始,有关动物保护和社会人道伦理的书籍层出不穷,如辛格的《动物解放》(Animal Liberation,1990),里根(Tom Regan)的《打开牢笼:面对动物权利的挑战》(Empty Cages:Facing the Challenge of Animal Rights,2004),富兰克林(Julian H.Franklin)的《动物权利和道德哲学》(Animal Rights and Moral Philosophy,2005),菲朗兹(Marc R.Fellenz)的《道德动物园:哲学和动物权利》(The Moral Menagerie:Philosophy and Animal Rights,2007),帕尔默(Clare Palmer)的《动物伦理的来龙去脉》(Animal Ethics In Context,2010),还有各种各样的论文讨论集。这些书籍在理论层次上提升和充实了社会整体对人类道德文明和人道文化的认识,也为动物保护组织的实践提出了新的标准和目标。这样的文明和道德对子子孙孙都有善待其他生命和善待他人的人文教育作用。这是一种能让许许多多人因变得更人道而更高尚更优秀的教育。人道地对待一切生命,则千百万的动物可以免除其苦。再者,千百万的人也可因之受益。

在康德的道德哲学里,人类保护动物免遭残酷对待,是因为在人类对非人类的行为中可以看出人类的道德——如果我们以非人道的方式对待动物,那么,我们便成为不人道的个人。达林认为,“这个论述在逻辑上可以扩展到人与机器人伙伴。对机器人给予保护,可以加强我们普遍认为是道德正确的行为,至少可以让我们与机器人的共处更加愉快。这也可以让我们对真有感觉的生命体不至于冷漠,并保持人类之间的同理心”。当然,并非所有人都同意保护动物权利的主张,但是,对于同意这个主张的人们来说,康德的道德论述也是适用于保护机器人的。如果说动物权利的讨论由来已久,那么机器人权利的讨论才刚刚开始,这种讨论不仅关乎如何看待人与机器人在主奴之外的伦理关系,而且关乎人类这个自由主体如何把自己的伦理和道德意识扩展到看似无生命的事物,这将是人类自由的扩展,这个意义的重大是不言而喻的。

本文摘自徐贲著《人文的互联网:数码时代的读写与知识》,北京大学出版社,2019年7月。澎湃新闻经授权发布,原文注释从略,现标题为编者所拟。
    责任编辑:钟源