当代美国评论︱数据孪生:世界上的另一个“我”?

段伟文/中国社会科学院哲学所研究员,中国社会科学院科学技术和社会研究中心主任
2019-05-06 19:20

随着智能社会的发展,数据智能的应用日益广泛,其基础是能够对数据进行程序化、自动化处理而获得知识与做出决策的智能算法。最常见的智能算法是内容推荐算法,而内容推荐的基础是通过数据的收集和挖掘,对事物和人加以区分。

区分事物最基本的方法是树状分类和标注。树状分类一般是建立在公共与专业知识之上的树状划分系统,具有静态、结构化和专业性等特征,如商品类型、教育背景、职称职位等。但一般而言,不论从自然科学还是从社会科学知识出发,对各种自然和社会事物的树状分类在逻辑上很难完备。以生物学中的物种分类为例,很多动植物的分类存在歧义。

标注又称大众分类法,源于人们在日常生活中运用某一属性或特征,对人和事物做出的临时性区分,如“开宝马车的”“背LV 包的”等。标注方法往往是经验性的,取决于动态的场景。故可以说标注是动态的分类,而分类是静态的标签。

随着大数据的出现,大量的和多维度的各种数据都可以以很低的成本用作标注,这使得数据的拥有者可以利用由大量数据标注组成的标签体系描述事物与人。在内容推荐等商业智能的应用中,标注所构建的标签体系既可用于描绘产品和服务等内容属性,也可用于描述用户即所谓的用户画像。用于用户画像的数据不仅包括性别、年龄、住址、教育背景等结构化的静态数据,还包括位置、搜索、点赞、评论、分享、关注、播放时长等体现用户行为特征的动态数据。

值得指出的是,尽管各种智能算法貌似客观,但不论是分类还是标注都会受到算法设计和数据分析的主导者的价值取向的影响,即便是所谓用数据说话也往往负载着相关主体的价值选择。在各种形式的陈述和表达中,语词和数据的选取往往带有相关主体的价值预设和偏见。在餐馆的菜谱上,为什么商家称水煮鱼为水煮鱼而不是水煮豆芽菜或更客观的水煮豆芽菜和鱼? 反观数据标注及由其所形成的用户画像,数据智能的分析者“断数识人”或对人进行分类,显然服务于其特定目的。

评价型社会与智能化生活的发展,将使得各种数据集与数据画像成为人的第二身体,既是在生命意义上的,也是在社会意义上的。通过各种生命和行为数据的精确采集、建模与分析,每一个个体可以在个人层面上得到刻画和定义,个体由此投射为一种虚拟身体或数据孪生。也就是说,人们可以根据人的行为数据而不是人的行为本身研究其特征。

随着各种人的行为数据的累积,可以运用相关性发现等数据智能方法,揭示出有意义的差异性和相关性等特征。例如,通过对大学生的饭卡打开水的数据的分析,可以发现打开水多的学生成绩好的比较多,很少打开水的学生可能患有孤独症或游戏成瘾。

人的数据孪生意味着基于数据智能的身体既是透明的又必然是共享的。从身体到行为的数据化形成了一种由数据界定的透明的身体,而要解读每个人的透明的身体,必须以数据共享为前提。以人的生命医学数据为例,只有在既了解每个个体的数据又掌握了所有个体的数据时,才可能找到每个个体数据的确切内涵,才能为每个个体开出特定的治疗方案,而这一切没有数据共享是难以想象的。

从价值和伦理反思的维度来看,数据画像或数据孪生非但不能等同于主体,而且在很大程度上是智能算法对人进行非人格化计算的产物,是一种将人作为计算与算计对象的“数字种性系统”(Digital Caste System)或“算法分拣程序”。后者使人联想到通过多维数据标注所形成的人的数据画像,人如同邮政地址一样变成了编码的集合。

通过智能算法,数据智能可以自动高效地“断数识人”或对人进行分类,进而对相关人群进行更具针对性的内容推荐、目标管理乃至行为引导与控制。由此,作为智能算法计算对象的主体的能动性受到了双重的挑战。

一方面,智能算法对主体的数据分析僭越了主体的对其个体性的认同,剥夺了主体的个体化权力。为了解释事物何以成为个体,法国当代哲学家吉尔伯特•西蒙栋(Gilbert Simondon)曾提出“个体化”(Individualization)的概念,即主体可以在各种由人和物构成的异质网络中的角色担当而成为某种个体。在不同的个体化过程中,主体的能动性使其不仅在个体化过程中具有一定的主导性,而且这种主导性使得特定的个体化并不排斥更多个体化的可能。

反观基于智能算法的数据画像,被计算主体不仅对其数据画像或数据孪生的内容及其所意味的刻板印象一无所知,更不了解数据分析者的意图以及因此可能受到的行为引导和操控。有鉴数据画像的过程中被描绘主体的能动性的缺席,数据孪生中所寄居的并非被描绘主体的心灵,而是非人格化的“机器之心”或居于其背后的操控者的他者之心,所以甚至可以说,所谓的数据孪生实质上是数据幽灵或数据僵尸。

另一方面,智能算法在精细的信息颗粒度层面对主体的数据标注与画像已然将其转化为无限多维的数据集,主体的个体性随之被消解为算法上可区分的特征数据。当代哲学家德勒兹(Gilles Deleuze)将此个体被信息技术消解的结果称为“分格”(Dividuals),并将这种基于对个体的精细化信息治理的社会称为“管控社会”。在他看来,在以往的社会中,尽管在职场、学校和家庭等具体场所,人们的行为会因为受到关注而被规训,但依然存在一些免受管控的空间。而在管控社会中,管控不再置于具体的场景,而更多地基于由代码组成的数字语言——它们不仅决定了人们能否获得信息,并且使人置身于一种无处不在的、持续运转的网络之中,形同巨大的筛子上排列得错落有致的筛孔。

比利时媒体理论家安托瓦内特•鲁夫罗伊(Antoinette Rouvroy)对德勒兹所预见的基于数字实在论(Digital Realism)和数据行为主义(Data-behaviourism)的算法治理术(Algorithmic Governmentality)进行了反思。她指出,在数据化的超精致社会中,新自由主义所谓的方法论的个人主义已经被指数化所取代,个体仅仅将其自身视为某种超量化的事物,从其与他人的表现的关系中界定自身。由此导致的具有颠覆性的问题是,一旦这种建立在所谓算法理性之上的治理得逞其志,个体因而被消解为绝对客观,同时也必然是绝对独断的数据幽灵之后,当代社会基于个体的权衡、慎思与协作的社会知识的生产何以可能?

透过德勒兹对个体被消解为分格的管控社会的预见及其“实现”,其对尼采在《权力意志》和《道德谱系》中的权力意志的探讨显得意味深长。在《尼采与哲学》一书中,德勒兹对尼采的权力意志作了深入的解读:力是所能,权力意志是所愿。权力意志既存在于能动和支配的力中,也存在于反动和服从的力中,能动力和反动力在起源的时候就存在着区别并在起源中共存。主动追求权力就是能动,能动力具有占有、征服和支配等特征,力图通过开拓环境来强加和创造形式,是一种转换的力量或酒神的力量,能动力肯定自己和自己的差异,并把差异变为享乐与肯定的对象。反动力是否定意志或虚无主义,它拒绝生命的最基本生存条件,是一种虚无意志和反生命的意志,反动力即便在服从的时候也局限着能动力,将种种限制和不公平的约束强加于能动力。

由此,反观智能治理术下个体消解为分格一旦成为一种存在论趋势,作为智能算法计算对象的主体将不再是能动的主体,其个体性可能为智能算法这种反动力所制约和塑造,主体的欲望和意志很可能受制于对数据驱动行为的纯粹适应。个体被多维的数据分格消解于无形,遑论作为个体的主体对其生活形式的反思平衡或参与审议式对话与商谈。

面对个体被消解为分格的智能治理术及其反动力,必须透过对能动性的检视引入一种使得能动力得以恢复的政治伦理策略。如果将智能治理术对个体生命、存在及其能动力的限制视为葛兰西式的霸权,那么主体在数据智能这一生活形式下的政治伦理策略的基本原则就在于对此霸权的非对抗性反制,即缠斗(agonism)。

何谓缠斗? 当代政治学家墨菲(Chantal Mouffe)指出,每一种秩序都是政治性的,其建立有赖于霸权实践,而每一个秩序的霸权实践都会受到反霸权实践的挑战。霸权与反霸权实践预设了对抗的不可根除性与无限延伸性,双方对立的本质与其说是出于敌对的根本性对抗(Antagonism),毋宁说实乃非敌对的缠斗。参与霸权与反霸权实践的双方是对手(Adversaries)而不是敌人,两者虽相互冲突却皆认同依然属于共同的政治联合体。

从非对抗性的缠斗这一基本的原则出发,应对智能治理术的基本伦理策略是对智能算法及其权力施以伦理审计和争胜性策略。所谓智能算法的伦理审计的基本思路,是从对智能算法应用及其权力实施中显见或严重的不当后果出发,反过来检视智能算法的设计和应用中存在的伦理上的不恰当性。

其中,智能算法的伦理审计主要包括两个层面:其一为后果分析,即对于对智能算法应用中出现的各种负面的后果进行认真的分析和审视。例如,在内容推荐算法中,时常出现的反复推荐、负面诱导、偏见放大、信息茧房、过滤气泡等现象,要研究和辨析其中的问题、危害及肇因。

其二为价值揭示,即从相关主体的能动性出发,运用行动者网络分析方法,对相关群体和利害关系人在智能算法的运用中的主观意图、价值取向、利益与风险分担等展开系统深入的分析,使其中存在的偏见、歧视、对自主权和隐私权等权利的侵害等价值冲突和利益冲突得以充分的披露。

争胜性策略则主要包括价值纠偏、伦理引导和伦理增强等层面。价值纠偏分为价值制衡与争胜性设计两个相互关联的环节。价值制衡就是在价值揭示的基础上,运用反思平衡、风险效益比较等方法重新权衡价值的合理性,使得智能算法在应用中所呈现出的具体的价值和伦理上的不当性得到具体而有针对性的价值制衡。争胜性设计则是价值制衡的落实机制。

由此,“价值揭示-价值制衡-争胜性设计”的循环成为环环相扣的最基本的伦理审计和争胜性策略模式。

在伦理实践中,这一模式的启动往往是由社会舆论关注程度较高的危害性事件触发的。以滴滴顺风车司机侵害女乘客事件为例,首先可以从价值上去揭示平台的责任:平台为何将顺风车这一共享交通软件变成一个社交软件,与此相关的利害关系人有哪些,是否表明平台为了商业利益而牺牲女乘客的隐私与安全? 其次,从价值制衡出发充分考虑乘客等价值主体在共享交通中的安全性这一关键价值得以凸显。最后,通过平台软件的改进,从设计层面扭转平台运行中出现的价值与伦理上的不当性。事件发生后,“滴滴”平台暂停了顺风车服务,并通过增设联系人、报警按钮以及全程录音等方式对平台软件的设计做了一些改进。

但价值制衡是否得到了落实,还有待对应用后果在价值与伦理上的恰当性的再检视,其后续的发展更将引入新一轮的“价值揭示- 价值制衡-争胜性设计”。例如,如何处理好全程录音与保护用户的隐私权等问题,有可能通过一些特定的事件演变为伦理审计和争胜性策略的关注焦点。

此外,智能化的伦理引导和伦理增强等也可能成为重要的争胜性策略,其要义是在计算机说服技术的基础上,通过智能化的劝导和助推,对个体行为进行伦理上的引导,甚至借助智能化的道德矫正,提升主体的道德水准。

但使问题变得尤为复杂的是,一方面,在伦理引导与伦理增强的过程中,数据智能等机器智能作为一种非人格化的权力,会不会与个体的自主性和主体的能动性发生冲突? 另一方面,根据什么标准,可以由谁对谁实施伦理引导和伦理增强?

-----

本文节选自作者刊于《当代美国评论》2019年第1期的论文“面向人工智能时代的伦理策略”。作者段伟文,系中国社会科学院哲学所研究员,中国社会科学院科学技术和社会研究中心主任。“澎湃”经授权选编。

    责任编辑:单雪菱
    校对:余承君