智能革命、城市与人类未来②|人类认知与生活的深度智能化

整理:段伟文、杨庆峰
2018-10-18 13:05
来源:澎湃新闻

2018年9月在上海召开的世界人工智能大会让社会与公众走近也进一步了解了人工智能。一方面,人们看到人工智能赋能新时代,给社会带来了经济发展、产业结构的变化。另一方面,也有人禁不住提问:人类正在面临一场智能革命吗?该如何定义所谓“智能革命”?这场革命对人类会有怎样的影响?

面对这些问题,于上月底(2018年9月27日)在上海举办的“智能革命、城市与人类未来”研讨会上,来自中国社会科学院、中国人民大学、清华大学、北京邮电大学、北京语言大学、上海社科院、复旦大学、上海交通大学、华东师范大学、上海大学、华东政法大学的学者围绕“智能革命的实质”、“智能革命对人类的深远影响”、“人类认知与生活的深度智能化”、“‘生命智能社会复合体‘(Bio-intelligence-social Complex)与城市未来”等议题进行了深入讨论。

研讨会由上海市科协、中国社会科学院科学技术和社会研究中心主办,上海市自然辩证法研究会承办,属国家社科基金重大项目“智能革命与人类深度科技化前景的哲学研究”的一部分。

“澎湃新闻(www.thepaper.cn)”获主办方授权,刊发研讨会上部分专家学者的发言。本文包括其中“人类认知与生活的深度智能化”这一议题。

图片来源:视觉中国

机器学习与逼真虚构

郦全民(华东师范大学教授)

这几年人工智能很火,我没有写什么文章。不过,我原来确实是做人工智能哲学的。我的第一篇学术文章就属于人工智能哲学,1998年发的,题目叫“人工智能中的达尔文主义”。我不是乐观派也不是悲观派,是个现实派。从进化论上讲,人类是不是进化链条上的最后一环?好像不太可能;有没有自然规律排除了出现比人类更高级的智能物种?好像没有证据否定。因此,那篇文章写了出现新的智能物种的可能性。这是20年前的事情,但后来没有做这个。

这几年人工智能方面的发展我一直关注,文献材料几乎天天看。今天我讲一点我关注的东西。讲之前我稍微做个说明。现在社会上,包括学界,对人工智能这个概念有不少误解。人工智能这个概念有两个含义。当年创始人是把它看作科学。科学的目标是理解智能,包括人在内。这个任务任重道远,也没有看到近年来有多少实质性的进展。

另一个含义就是人工智能技术。因为人工智能是试图用技术或工程的手段实现科学的目标,所以有两重性。现在火的是一些技术。人工智能发展的历史当中有个很有趣的现象。以前60年代、70年代、80年代有不少做出来的技术被搞软件的人或者搞人机交互的人拿去了,所以,人工智能内部的人感慨说是“为他人做嫁衣”。现在倒过来了,人工智能火了,什么都叫人工智能,本来不是人工智能的东西,比如一个简单的APP,也叫人工智能。我们搞哲学的,有责任对这些概念做个梳理和澄清。

接下去,我想讲的是一个比较有趣的东西,四年来最火的一种技术。我想用这个例子来说明真正的技术发明和技术创新其实是很难预测的。另外,我想讲一下一种技术给我们带来的思考。那是什么呢?2014年出现了一种新技术,被认为是近年来最酷或者最火的发明,叫GAN。 “G”就是生成,“A”就是对抗、抗辩,“N”就是网络,简单地说就是生成对抗网络。

这种技术的发明者是加拿大蒙特利尔大学的博士生,叫Goodfellow。2014年的一天,他和另外几个人送一个师兄毕业,就去酒吧。喝得微醉时候不知道怎么回事,他突然想到费恩曼1988年临终那天在黑板上留下的话,意思是我无法理解不能创造的东西。受这句话的启发,他发明了GAN技术。这种技术的基本思想是:有一个能不断生成图像或其他什么的神经网络,再有另一个能鉴别或评判生成的东西是不是靠谱的神经网络,通过两者的抗辩来获得逼真的结果。这有点像艺术家和艺术鉴赏家或批评家之间的关系,通过互动来获得优化的结果。这可以说是一个比较偶然的发明案例。

我要说明的问题是什么呢?我们作预言,往往是预言一个笼统的大趋势,或者预言那些重复性的现象。真正技术的新发明或科学发现,有很大的偶然性,其实很难预言。很多东西不能做预言,包括人类社会,未来会怎么样,我们无法预言。前面很多老师讲到未来的前景,我是有困惑,不知道会怎么样。

这种GAN技术经过近四年的发展,我网上查过有很多应用。应用当中会出现一些问题,需要我们思考。它的一个主要用处是创作图像,比如说生成一张看上去就是张三的照片。这个张三的真实照片作为比较,感觉生成的照片不像就改,后来改到两张照片没办法区分了,就算达到目标了。

这种技术有什么用呢?网上出现过一个关于“奥巴马”的视频,看上去是奥巴马,听上去是奥巴马;而实际上是用这种技术生成的。这可以叫做逼真的虚构,看上去逼真,其实是虚构。那么,像这样的东西出来之后可能带来各种法律和伦理问题。一个马上可以想到是关于人脸的。比方说,视频中,我们常常看到有些人脸被打了马赛克。现在,这个技术可以把马赛克去掉,就会有问题。

这种技术假如大量使用,也许会出现一个亦真亦假亦虚亦实的世界。到底怎么样,对普通人来说,可能会变得无法分辨。对我们这些搞教育的,这是一个巨大的挑战,也就是如何提高受教育者的判断力。当今世界,不缺知识,缺少的是判断力。

数据挖掘与技术伦理

闫宏秀(上海交通大学科学史与科学文化研究院副教授)

我这里有个很小的问题叫“数学挖掘与技术伦理学的内在路径构建”。

我提的是一个内在路径,传统意义上我们是从外在看伦理学的,一般把技术当做是伦理学批判和反思的对象,反过来在智能革命时代,就是智能参与多的时候,包括刘老师讲的人机交互之后,更多什么东西需要伦理去反思它,这样我就想内在路径可以做什么。这是最近有点成果,在1月份做了一篇文章,《数据挖掘技术的哲学反思》,其中主要是从本体论和认识论谈了一点想法,这个文章也被转载。这个想法当中我就提出,既然数据挖掘从本体和认识当中已经促进发展,那么作为伦理学来讲是不是有更新的东西在里面呢。伦理学本身环境已经改变了,改变之后伦理学本身是不是有更新的东西。我选了一个小的视角,什么视角呢?前面几位专家全部探讨人、技术、过程、动物等,人和自然是剥离还是回归,我们是否被AI监控起来之后,其实我们在想一个共同的话题,人到底想干什么?就智能时代我们想干什么样的事情,归根到底伦理学特别想搞清楚人到底想要创造什么样的世界,这样就重新审视一下人的伦理主体地位。

无人驾驶的法律与伦理问题

高奇琦(华东政法大学教授)

今天讲一个比较具体的话题——自动驾驶,因为我报的题目是无人驾驶,但到底是自动驾驶还是无人驾驶这是一个非常有争议的问题,能不能做到无人技术上包括伦理上还有很多争议。前两天也是讨论人工智能和法律相关问题的时候,大家还是倾向于用辅助手段。我就来讲自动驾驶,因为自动驾驶比较快吧,因为5G的落地,特别在中国主要是2020年,所以2020年自动驾驶的落地可能会比较快了,现在技术上有更好的储备,但是在政策、伦理、法律的基础上远远没有做到很好的储备。

第一个问题是上路,上路的问题现在有一些政治性法规主要是用于测试。现在主要是中国的一些地方,比方说北京做了一些可以上路测试的规则,但至于商业化应用的上路其实《交通法》还没有规定。大家都知道级别是从L0到L5六个等级的级别,现在最高等级,技术上应该说最先进的是奥迪A8,达到L3的级别。大概是什么情况呢?到车速低于60的时候,在拥堵的状态下可以启动自动驾驶的模式,高于60的话还是要人来操作。德国因为奥迪A8修改了法律,制定了20条的自动与网联化汽车交通能力规则,它是调整了,允许这种情况,但是我们国家现在还没有修改。

第二个问题,产生事故之后产生的刑事和民事纠纷的问题。刑事主要涉及到两个罪名,一个是危险驾驶罪,一个是交通肇事罪。如果我们将来同意,就把自动驾驶的设备认定为司机的话,这其实美国是认定为司机,我们现在还没有认定,认定之后产生一系列问题,包括在法律上开了个口子,你要认定它为司机,那就相当于要认定这个设备有独立的民事法律主体的地位,这可能给机器人开了一个大的口子,接下来一系列是不是要给它民事行为主体,但美国是已经把它认定为司机了,中国还没有认定。一旦认定为司机的话就不存在危险驾驶罪问题了,因为它可以上路了。日常中危险驾驶罪有两个情况,一是赛车,还有就是醉驾,一定要认定之后这两个罪名和自动驾驶没太大关系的,所以主要是交通肇事罪。交通肇事罪指的是违反交通规则之后造成重大事故,致人重伤死亡和公司财产重大损失的。为什么说这是一个难题呢?就是说现在的交通肇事罪的主体是人,我们讲的是自然人,如果将来自动驾驶出现了致人重大事故死亡的话,现在是没办法认定,认定谁呢?肯定是机构或者汽车生产商,所以现在刑法是没办法解决这个问题的。还有如果将来有人用黑客技术,比方说用网络安全问题进去产生重大事故,这怎么来进行规定。

在民法上主要是侵权责任法,到底谁来赔偿承担这个民事责任的问题,这里面大概思路是这样的,如果它不是独立主体的话这个责任肯定是归车主,如果是独立主体的话就有点麻烦了。如果产品有瑕疵有责任的话可能就涉及到汽车制造商或者说软件服务提供商来承担责任。如果不是产品责任,那如果是独立主体的话将来是不是有种可能,机器人或者自动驾驶的设备独立来承担。无人驾驶或者自动驾驶可能会把这些伦理问题先就产生了,自动驾驶还没有上路,但已经有人来找我们讨论这问题了。快递自动的小车在园区里跑已经撞到人了,产生纠纷了,他们解决不了就来找我们了。还有一个是举证责任的问题,还是挺复杂的一些问题,时间有限就简单点一下。

第三个问题,伦理问题。因为我们人现在还讨论不清楚,大家现在很关心一个问题,人还没讨论清楚的问题现在要交给机器来判断,机器怎么做判断?人还没明白现在要让算法来解决,所以这是一个问题。另外还涉及到算法在紧急状态下做决策的问题,我讲一下德国的法律调整,德国的最新交通法中规定驾驶者在使用自动驾驶的时候仍然有警觉和随时接管的义务,这主要是针对L3的,在紧急状态下要干预的,不干预出了事故是车主的责任。同时德国的法律里也有冲突的地方,就是和道路交通修正案配套的自动驾驶伦理准则中,准则第十九条中规定说制造商和软件提供商不能在紧急状态下要求人的介入,因为这涉及到人本的原则。留给人的时间可能很短,就五秒钟或者十秒钟,现在突然说自动驾驶把持不住了,请人来做决定,这对人来讲不公平的,特别是对于年龄大的人,五秒钟反应不过来,说这个责任就是你的,这很有可能成为自动驾驶服务提供商推卸责任的条款,这个伦理准则中说是不允许的,特别对于一些老人或者弱势群体是不太对的。

还有刚才杨老师讲的隐私问题,在我看来是个最大的问题,我个人不管是自动驾驶还是什么,将来自动设备最大的问题就是隐私问题。相当于多了一个数据采集,你能随时唤醒就意味着它随时在采集你的数据。自动驾驶也是这样的,包括网络安全,包括隐私在我看来是最大的问题。还有失业的问题,我举一个数字—滴滴,滴滴号称给2100万人提供非正式的就业岗位,在自动驾驶落地的过程中,这2100万会逐渐地没有了,所以自动驾驶的落地在我看来是个系统工程,总书记前两天世界智能大会的贺信非常好,把我们重大项目的意义完全突显出来了,人工智能相关的法律、伦理、政策、安全、隐私等等,恰恰是段老师来引导我们的题目。

软件权力及其治理

陈鹏(北京语言大学)

我汇报的题目是软件的权力与治理。应该说我们整个团队在两三年前就一起讨论软件权力(算法权力)的相关问题,记得三年前和段老师在一个会议上比较详细地交流过算法权利及伦理问题。这些年算法权力(数据权力)的问题似乎炙手可热,已经有了不少文献对其开展严肃地探讨。整体而言,我们的研究有自己的一个进路,在对这个问题的研究中,一直是有几个问题在引导我去做一些深入的思考。首先,第一个问题就是人类未来生存的空间到底是什么样的?这是非常让我着迷的问题。其次,第二个问题便是软件在未来人类生存空间中究竟处于什么样的位置?扮演什么样的角色?软件和生存空间中权力问题是什么样的关系?。最后,第三个问题是新的权力架构下的伦理考量。

我今天的汇报可能会触及对这些问题的一些思考。首先,关于第一个关于人类未来生存空间的问题。之前我对软件本质做过一个追问,在计算机学科中,软件的概念是一个非常基础的概念,安东尼·泉朵、皮特·舒伯、蒂莫西·柯尔本、詹姆斯·摩尔等学者对软件都进行过深入的研究与分析,然而大多数研究是从技术层面来分析软件,我认为软件应该从人、软件、计算机三元视角去考察,同时,应该跳出纯技术的视角,在这样的视角下会发现软件会因人而异也会因机而异。沿着这条思路,我们得出:软件本质上是人与计算机形成的共同编码,并在转导层次上形成共同的逻辑。在这个基础上,我们进而思考到人类未来的生存空间,以往人本主义我们会很自然地把世界或者把我们对意义的追寻是以人为主体的。然而,在软件的调制下,人类未来的生存空间其实是以人和机器为共同主体,以软件为核心去建构这样一种生存空间,一种新的意义空间。在某种意义下,这种空间和弗洛里迪的信息圈有相似之处。

当然,我所说的这种人类未来生存空间与现在所提的网络空间(cyberspace)有着本质的区分。实质上,人们现在所言的网络空间或者虚拟空间已经终结,它们正成为人类生存空间的一个维度,是人类所追寻意义的空间的延展。

在这种人类未来生存空间下,我们将进一步追问软件所扮演的角色?我认为,软件正在重新定义这个生存空间的权力结构。如果你从软件即媒介的视角的话,麦克卢汉有过很明确的对媒介权力的阐释;如果你从软件知识的视角,利奥塔、福柯等人都对知识权力做过精辟的分析;如果从软件信任的视角来看,现在类似比特币和区块链就是这种权力的一种主张。通过这三种视角,软件成为一种未来人类生成空间中很稳固的权力基础。值得一提,我们所言的软件权力涵盖现在很多学者提出的算法权力和数据权力问题,在计算机科学中,就通常将软件定义为“算法+数据结构”。

我所定义的软件权力实质上有三种构型,这三种构型是我刚才说到的人、软件、计算机三元关系派生出来的。它包括:机器-软件权力,第二是人-软件权力,第三个是机器-软件-人权力。

机器-软件权力构型是现在很少被关注的。所谓的机器-软件权力是以机器作为主体的权力主张,其实这种主张已经在不经意中正得到一些回应,比如说现在很多政府要求的开放数据必须是可机读的,不仅仅是人读,要保证你的数据对机器是可见。另外,在许多自然语言处理中,人类对各种语料库的语法或者语义标引也是对机器-软件权力主张的回应。

第二个权力构型是人-软件权力,对这种权力现在大家讨论特别多了,包括现在大数据的数据权力会影响到社会政策,例如2016年的英国脱欧,2017年美国大选。另外这种权力对金融已经实施了深刻的影响,现在应该65%以上的交易都是算法交易,此外最近大家非常关注类似亚马逊平台上的算法定价的公平问题或者垄断问题。还有算法权力在司法领域的影响,2018年朱莉娅研究了在美国司法部门广泛采用的犯罪预测软件存在对美国黑人的一种歧视。还有算法权力在社会保障中的影响,像尤邦克斯也是提到了算法或者数据滥用导致的一些社会本身不平等的加剧。

最后一个构型就是把机器-软件-人权力,这个构型实际上是没有太多人去研究,但实际上存在一个问题,当一个机器如果只是人的代理,它应该在整个权力中承担什么责任?这种权力构型是对人,对社会的影响又如何?

最后就是我对这种软件权力的规训以及治理的思考。软件权力会引发公平性、知情权、个人隐私等众多的伦理问题,我们该如何应对?我们如何去对软件权力进行审计并问责,都是摆在我们面前的严峻挑战。

论明斯基的“心智社会”

陈自富(上海交通大学科学史与科学文化研究院博士)

我们对智能革命的理解,智能为先,革命为后。我们回到智能革命本身,一个是涉及到智能本身技术的思想史,另外一个就是说对智能理论基础的反思。这两个主题的讨论来自于一本书,就是明斯基的《心智社会》。在计算机界的最高奖图灵奖中,目前为止有五个人因为AI方面的工作获得了图灵奖,其中第一位就是马文·明斯基,1969年,他获奖的理由就是因为人工智能理论和技术方面的贡献。马文·明斯基前两年才去世,他另一个身份也是人工智能1956年达特茅斯会议的发起人。因为从工程技术角度来看,我们讲获得图灵奖的五位科技工作者当中喜欢从事战略性思考的,其实主要是马文·明斯基和赫尔伯特·西蒙,但马文·明斯基的书偏大众化一点,他还有一本书《情感机器》,目前这两本书目前都翻译成中文了。

其实这个标题有点误解,因为马文·明斯基在这里做了一个区分,他盗用了Society,这个词其实在这里并不是我们讲的人类社会的本义,他用community这个词来指日常意义上的“社会”,而我们知道community一般翻译为“社区”。这本书的产生是有特殊性的,就是说马文·明斯基他有一个习惯,喜欢把书的手稿先散发,在同行当中散发了大概10年以上,到了1986年才把这本书出版,所以这中间有个比较好的和同行之间沟通的过程。《心智社会》既是书名又是关于他关于自然智能的基础理论的名称。这本书很通俗,正是因为写的太通俗了,好像每个人都能懂,但读下来的话里面的内容还是非常深刻。这本书的思想来源很多,其中不少是明斯基指导的学生,但该书的起源是70年代早期与认知科学家派珀特在MIT合作开发操作儿童积木世界的机器人工作。

这本书是一个比较奇怪的体例,中文版翻过来的体例就看不到,英文版是有270页,每一页就是一篇独立的短文。为什么他要这么做呢?他认为我们没法用一个简单的理论来描述,也就是说在人工智能领域没有办法用简单的理论来描述智能的原理,所以他的文章题材这么来安排,用270页相对独立的短文,从这种杂乱的材料组织当中反映智能的产生原理,这反映他对于智能的根本看法。

这本书是一本商业上的畅销书,trade book。正是由于内容组织这么杂乱,我们知道明斯基提出了AI研究方法中的两个概念,scruffy和neat,前者可以翻译为杂乱派,后者是整洁派。他把自己算在了杂乱派,另外一种是整洁派,需要对知识进行形式化处理。这本书的主题我尝试着做了一些相关的梳理,大概包括幻灯片上的这些。关于思维的形而上学思考,思维的本质和来源、思维与智能、人类的“机器隐喻”、自我、智能的本质。还有心理学假设和模型:记忆理论(K-line)、A-B脑假设、问题求解。他自己的框架脚本在这里做了一个扩充,叫Trans-Frames。还有他讨论到了伦理学。另外他基本上把逻辑和推理的重要性做了否定性的回答,所以我们把它当成明斯基从事人工智能开发时,不管是来自于项目实践还是来自于未来构想的一种智能理论基础。

为了加深对理论的核心理解,我从书中提炼出了一些词句,例如思维的本质:它的能力似乎就是源于那些智能体之间复杂的交错关联。这里面就不太仔细去念,例如因为在人工智能研究方面会用到语言,他就说语言其实是没有多大用处的,语言只是指挥它干什么活的工具。

这里随便举出几个例子大家都非常熟悉,他和同行这么多人交流,因此思想来源就非常的庞杂,包括学生的一些博士论文。他思想的很多内容来自于GOFAI,但这里面也有些问题,西蒙讲的其他一些符号假设基本上是不看,或者完全否定。第二个方面是关于记忆的理论来自于联结主义。还有一部分讲小孩子怎么获得智力和思索行为的,另外也大量使用了弗洛伊德的精神分析,还有进化生物学和分析哲学。为什么这本书比市面上其他的那些书要值得重视,毕竟他算是AI这个行业的大师级人物,很多东西值得思考。

从这本书中获得的一些启发,第一个是关于Agent的含义问题。Agent的含义有多个,首先有经济上的含义,另外我们讲软件工程的Agent自治性不是SoM中Agent的核心特征。第二个讲明斯基遇到很大的难题,因为按照他的理论逻辑是没有自由意识的,但是如果没有自由意识的话只有两种方式,一种是决定论,一种是概率论,这两种方式会使人面临道德困境,后面明斯基说虽然我们认为没有自由意识,但不得不坚守错误的假设,自由意志必须存在。明斯基把存在自由意识当做工具论来假设,而不是科学解释。第三个就是说AI,缺乏非常强的理论基础,那SoM这个层次对于奠定AI理论基础是否有必要?在当前阶段,SoM在哲学、心理学与实际的AI工程问题之间搭建了一个灰色的桥梁,为什么要灰色?第一如果你是黑色可见的那需要证伪,这个很难。如果是白色的那就是空谈,所以需要有一个灰度,有初步的解释模型。第四个是我认为最值得思考的地方,究竟什么样的科学理论适合作为AI的研究基础?还有我们讲一个总结,没有科学哲学的科学史是盲目的,没有科学哲学的科学史是空洞的,因此,如果没有合适的智能理论基础和哲学指导,AI技术实现将是失控和可怕的。

智能算法与解析社会的政治与伦理考量

段伟文(中国社会科学院哲学所研究员)

近年来,人工智能应用的热点是数据智能,其主要背景是世界的数据化。所谓世界的数据化简单地讲就是:世界就是数据,数据就是世界。什么是数据?英文中的数据一词是data,但其内涵不仅与数字或科学观测有关,更是对世界的记录。当初傅统先在译杜威的《确定性的寻求》时,将data翻译为素材。当前,我们所说的大数据和数据智能中的数据的含义就是素材,更确切地讲是电子化的素材,比方说报告的录音、录像就。有些素材的元数据是可以量化和结构化的,这些数据起到了测量世界和人的行为过程的作用。近年来,由于素材或数据存储与处理的成本不断降低,我们能够把很多东西记录下来,虽然记录的时候有各种各样的目的,一旦记录下来以后就可以变成素材而用于别的用途,如可作为其他主题的数据挖掘之用。值得指出的是,当我们讲“世界就是数据”和“数据就是世界”时,应该看到所谓的世界的数据化并不是抽象的,用数据呈现世界和人的行为的方式取决于具体的记录、传感、测量和分析技术,而任何方式都会突出与强化世界与人的行为的某些方面而忽视与弱化另一些方面。

数据智能和智能算法的应用是现代社会治理与个人治理日益量化的最新表现,这一趋势发端于17世纪的“政治算术”和始于19世纪的“控制革命”密切相关,其新近的发展正在导致“解析社会”的来临。首先,所谓政治算术可以追溯至17世纪刚兴起的统计学的社会应用。当时,统计学的社会应用的倡导者将统计学称为政治算术,当时的哲学家和古典经济学家威廉.配第还专门写了本题为《政治算术》的小册子,以强调统计数字对于政治具有至关重要的作用。其次,使政治算术的理念得以普遍推行的则是被称为“控制革命”的信息技术的发展。20世纪80年代,信息技术史家贝尼格(James R. Beniger)在《控制革命》一书中指出,19世纪以来,信息技术的发展实质上是为了克服由城市化和大工业生产所带来的控制的危机而形成的一系列控制革命。

20世纪的最后30年间,伴随着对以工业化为特征的现代化的弊端的反思,微电子、个人计算机、网络和移动通信等信息通信技术的发展为信息化开辟了道路,其间不仅涌现出后工业社会和第三次浪潮等社会理论与未来学思潮,而且还由反主流文化孕育出为虚拟空间奠基的赛博文化,其结果导致了20世纪末具有虚拟性、匿名性和多主体交互性的网络空间的崛起。但这种貌似个体可以通过虚拟的网络空间摆脱现实社会制约的幻象很快就破灭了。随着谷歌搜索对百科全书检索式的雅虎等早期门户网站的超越以及Web2.0和网络社交新媒体的发展,用户网络活动所生成的内容即UGC(User-generated content)不仅使网络为用户数据所驱动,而且这些数据反过来成为人们的数据足迹。随着移动互联网、网络社交媒体、智能手机、可穿戴设备等信息技术的发展和各种数据的指数化增长,对人的线上和线下行为数据的搜集和分析则可能使每个人成为被追踪、观测、分析的对象,数据的掌握者由此可对数据进行认知计算,借助一定的算法对数据主体展开行为评分和内容推荐等对人的行为进行评判、引导和干预。

不论是运用数据表征或干预世界和人的行为,还是运用各种可穿戴设备对数据采集与分析对他人或自己的生活进行量化自我等管理与治理,都预示着一个全新的社会——解析社会或数据解析社会的来临。数据解析社会这种新的社会形态是革命性的。一方面,数据所扮演的角色如同13世纪时出现的透镜,透镜所制造的望远镜和显微镜让宇宙和微观世界得以清晰地观测与呈现,如今“数据透镜”则使人的行为得到得到量化地记录与透视。另一方面,就像17世纪笛卡尔发明解析几何使得自然界的结构与规律得以探究一样,数据分析与智能算法的应用正在使人的行为规律得到洞察和解析。

不论数据解析社会的构建如何展开,智能算法对人们生活的影响已无处不在。从企业对员工的评价、人事简历自动筛选、商业信用评分到区域犯罪预测、城市警力分布、自我健康管理,数据分析与智能算法在人们生活中涉及的各种评价、筛选和决策中日渐扮演着举足轻重的角色,我们业已步入由算法规制生活和引导人的行为的算法生活时代。政府和企业为了各种目的在其管理和运营中引入了很多智能算法,这些算法在执行中会形成各种影响人的生活的算法权力。这种算法权力很容易遭到滥用,甚至会发展为所谓的算法霸权。首先,姑且不提算法可能存在的黑箱问题(不透明、不易解释等),供机器学习的大量罪犯行为数据本身是由人记录和处理的,本身就带有人的各种偏见(如种族偏见、社区偏见等),在此基础上所进行的算法决策很容易使这些偏见放大。其次,这种算法往往只考虑到某些特定的视角而缺乏整体性的思考。其三,这种算法中存在的不合理之处往往缺乏反馈与纠正的渠道,如果不能引入受到算法权力伤害或不公正对待的人能够及时参与的反馈纠错机制,算法的主导者很难主动发现问题并加以反思和修正。

智能算法的应用建立在一种基于预见的可能性而采取控制行动的政治逻辑之上,我们可以称之为可能性的政治。在斯皮尔格导演的电影《少数派报告》中对未实施的犯罪的阻止甚至惩罚虽然不一定发生,但数据分析和智能算法的控制者显然会用它们来预测、引导或阻止人的行为,不论其方式是柔性的计算机说服技术或智能化助推,还是刚性的简历筛选和行动自由的限制,都体现了某种宰制性的权力或霸权。以所谓人的数据画像为例,虽然人的数据画像如同人的“数据孪生兄弟”,但其本身是没有主体性的和能动性的,而只是体现了数据分析与智能算法的掌控者对你的主体性或能动性的猜测,其中所折射的是他人的主体性、能动性或意向性。因此,数据孪生兄弟实际上是缺失心灵的数据僵尸。

由此,要克服数据分析与智能算法的数据霸权与算法权力,应该从主体的能动性构建出发,使人的主体性、能动性或意向性免于被数据僵尸所取代的命运。这就要求我们通过与数据霸权与算法权力的缠斗寻求人的能动性与算法权力关系的再平衡:始终从使用者或人的角度去评判智能算法的合理性;智能算法应发挥普遍性赋能作用,使每个人的能力增强、权利也得到相应扩充;人与算法要建立起一种伙伴关系,即使智能算法成为陪伴人、帮助人的伴侣技术。

    责任编辑:韩少华
    校对:张亮亮