当代美国评论︱是时候改变侵略性的数据监控模式了

段伟文/中国社会科学院哲学所研究员,中国社会科学院科学技术和社会研究中心主任
2019-05-13 18:10

面对人工智能在当前发展态势下的伦理冲突和风险挑战,有两个具体的问题值得展开切实的审度与调适:其一是数据权利与算法权力的再平衡;其二是人机共生时代的人机关系的再平衡。

谈到数据权利,2018年5月,欧盟颁布了《一般数据保护条例》(GDPR),明确指出保护的主体就是个人数据,而个人数据指与一个已被识别或者可被识别的自然人相关的任何信息。该条例对数据获取权、修改权、被遗忘权、数据可携带权、异议权等数据主体的权利做出了明确的界定。这些数据权利在一定程度上体现了在数据的商业智能等数据智能应用中的问题,可以视为在价值和伦理层面对相关侵权行为的反制。

但同时也要看到,这些权利也并非无条件的绝对权利,都存在一定的限制。以对数据画像异议权为例,只有当对用户进行画像等决策对用户产生法律或者其他重大影响时,用户才有权反对。

但这一条例出台后,不论是从国际数据流通,还是从中国相关法律和伦理建设层面考虑,必须对其基本内容进行系统的研究,对相关数据权利的合理性与局限性应该有一个全面的认识。

在数据智能得到普遍应用的解析社会,个人数据权利的重要性不言而喻。在解析社会中,不论人们主动与否,大家都是数据的贡献者,一切数据都被记录,一切行为都被分析。数据智能不断追踪着每个人的数据,数据与世界的等同性意味着对个体数据的追踪,实际上就是对每个人的价值观的追踪。因此,在理解了非人格化智能算法正在用人们的行为数据定义人们这一事实的情况下,每个人都应该更加主动地参与到此过程中,使主体的能动性影响到基于智能算法的数据分析和数据画像的过程与结果,通过必要的反馈与修正机制的构建,重获西蒙栋意味的个体化议程的主导权。

由此,数据智能和解析社会的未来发展面临着数据权利和算法权力的再平衡。鉴于个人数据权利的缺失终将导致全局性的信任稀缺,是时候认真审视和从根本上改变当下普遍存在的不无侵略性的数据监控模式了。

为此,应该认识到智能算法和数据分析技术的应用,不能不考量普通主体的利害权衡,以及这些技术的可接受性,从而由智能技术的可接受性的维度出发,构建全新的基于信任氛围的数据共享模式。

首先,即便不能像欧洲的数据权利保护条例那样提出高标准的数据伦理规范,至少也要促使企业、机构对智能算法的应用担当起主要的责任。

其次,致力于寻求有利于营造信任氛围的、务实的数据权利保护模式,促使数据交易各方对自己的行为负责,使每个相关主体知道相关的数据如何被处理,特别是用于其他用途的情形。使数据权利的主体在原则上有权决定对其数据的处理与洞察,以此减少数据的滥用,杜绝对数据主体的严重伤害。

更为重要的是,应从负责任的、创新的观念出发,形成更具反思平衡性的数据观念。一方面,在提升数据主体的数据权利意识的同时,要促使主体通过追踪自己的数据,能动地反省其内在的价值诉求和价值观念,并通过自我参与式的数据分析和数据画像不断改进自我。

另一方面,至关重要的是,应该走出过度地攫取数据的迷思,树立数据有度的观念,对非人格化的算法权力加以必要的节制。尤其应该在跨学科研究的基础上,充分揭示当下具有高度侵略性的数据监控模式对主体能动性的侵蚀,深入辨析其对个体行为的自由度及其自我修正和自由发展的潜在可能所形成的高度制约性。

为此,应倡导一种基于“节俭理性”而非“全能神理性”的数据和智能观念,使数据的收集、存储、处理和挖掘对主体权利的负面影响尽量减少,并以主体的可接受性作为数据智能应用的刚性边界,倒逼数据挖掘和分析技术的创新,使其能够更有效地发现有价值的数据模式。

就人机关系而言,在人工智能的未来情境中,即便未必会出现库兹韦尔等人所宣称的超级人工智能大爆发的奇点,但依然应该借助各种理论资源对可能带来的重大影响和深远后果及对策展开系统的分析与探究。

以所谓“无用阶层”的出现为例,马克思在晚年就曾有预见。在《机器论片断》中,马克思指出:“工人把工具当作器官,通过自己的技能和活动赋予它以灵魂,因此,掌握工具的能力取决于工人的技艺。相反,机器则代替工人而具有技能和力量,它本身就是能工巧匠,它通过在自身中发生作用的力学规律而具有自己的灵魂……科学通过机器的构造驱使那些没有生命的机器肢体有目的地作为自动机来运转,这种科学并不存在于工人的意识中,而是作为异己的力量,作为机器本身的力量,通过机器对工人发生作用。”

马克思不仅强调指出,“机器无论在哪一方面都不表现为单个工人的劳动资料”,而且进一步预见,“对象化在机器体系中的价值表现为这样一个前提,同它相比,单个劳动能力创造价值的力量作为无限小的量而趋于消失。”

倘若“无用阶层”的出现难以避免,从社会风险防范的角度来看,一定要从创造性教育、人文素质培养上努力减少“无用阶层”产生的冲击波,通过系统的心理疏导和社会管控,从心理和精神层面展开智能化的引导和校正。

要克服机器掌控世界和智能化鸿沟等可能给人类文明带来的风险,必须对人类在智能系统中的地位和作用加以认真的审视。

一般而言,如果将智能算法决策和自动智能系统的操作过程视为一个闭环,人类对自动智能系统的控制一般有四种方式。一是人在闭环之中:人定义-机器人选择-人确认-机器执行。二是人在闭环之上:人定义-机器人选择-人可以使之中止-如人未使之中止-机器人执行。三是人在闭环之外:人定义-机器选择-机器执行,人无法中止。四是人与闭环无关:机器定义-机器选择-机器执行。

通过这四种方式可以看到,随着自动驾驶和自动智能武器系统等能力与威力的迅猛增长,人对系统的控制作用却在逐渐弱化,对风险防范和责任追究必将成为社会关注的焦点。但要克服这些风险并没有捷径,只能通过诸如“无人驾驶是否比人类驾驶更安全,更合乎道德”和“自动智能武器系统会不会比士兵作战更人道”等悖论的探讨,从具体的人机共生的可能情境中,不断展开对人机关系的再思考。

为了从根本上抑制自动智能系统可能带来的风险,应考虑引入若干促进人机相互理解与协同的策略。其一,将人与机器之间的相互理解作为自动智能系统的基础和前提,其中既应包括理性层面的认知方式与知识表达层面的人机相互理解,还应包括人与机器之间的共情关系和同理心的构建。

其二,一些重大决策和执行系统如果采用自动智能系统,应有多个备份和功能类似的替代性系统,以防范系统风险。

其三,构建人工智能应用特区,在有条件的科技创新中心的部分地区,广泛、深入、充分地展开人机互动试验,探索面向未来人机共生社会的创新文化。

-----

本文节选自作者刊于《当代美国评论》2019年第1期的论文“面向人工智能时代的伦理策略”。“澎湃”经授权选编。

 

    责任编辑:单雪菱
    校对:张艳