当AI成为圭臬:我们正在制造新的“低端”与新的羞耻

王希言
2026-01-27 14:05
来源:澎湃新闻

从工具革命到价值重排

最近AI在全世界范围内迅速升温,几乎成了一种新共识:人人都该学会使用AI,掌握者被视为“跟得上时代”,不会用的人则隐隐被放进“迟早要被淘汰”的队列。各类鼓吹AI效率的媒体文章充斥屏端,诸如“一个人顶一支团队”、“一个人完成一年的工作”等标题党式的口号层出不穷。 这种叙事将复杂的社会劳动简化为单纯的算力输出,试图构建一种“效率至上”的技术乌托邦。表面上这是一场工具革命,实际上更像一场价值重排:谁先进、谁落后;谁高效、谁低效;谁值得被投资、谁可以被牺牲。技术焦虑因此并不只是一种“学习焦虑”,它更像一种身份焦虑——你担心的不是“我会不会用”,而是“我会不会被归类”。

理解这种焦虑,必须先承认一件事:技术从来都不只是一套方法,它总会携带一种社会性的评价体系。所谓“效率”“进步”“创新”,在不同语境中常常并不是中性的词,而是可以用来划分等级、制造边界、分配尊严的词。人们以为自己只是在讨论工具,实际上是在讨论谁更体面、谁更可被替换。

我最近读到《镀金的鸟笼》时,对这一点感触更深。这本书写科技企业,也写一种更普遍的社会逻辑:当一个社会高度强调工具理性时,技术转型往往伴随着对“过去”的道德审判。所谓“高科技”“高精尖”不仅是产业分类,更是道德等级;相应地,那些曾经解决大量就业、推动经济增长的行业,却在转型叙事里被称作“低端”“污染”“重资产”。因此,倒闭、破产、下岗、辞退不再被理解为结构性变化中的代价,而更像一种“你活该”:活该你不够先进,活该你被时代抛下。更残酷的是,这套叙事会反过来塑造人的自我理解——被定义在“低端”的人开始自卑,仿佛自己的劳动本身就不体面。

今天围绕 AI 的热潮,正在复制类似的机制。AI 当然能提升效率,但当它被奉为圭臬,效率就会从“手段”变成“道德”:快是对的,慢是错的;自动化是对的,手工是落后的;会用 AI 是体面,不会用 AI 是“你该努力”。于是“工具”变成了“标准”,“标准”变成了“筛选”。在这种筛选里,最先被挤到边缘的往往不是能力最差的人,而是那些工作本就靠时间堆出来——靠缓慢积累、经验沉淀,以及不确定与反复的人。

当AI写进KPI

在互联网大厂工作的朋友说,互联网越来越机械,设计部门、视频部门甚至被要求把“使用AI辅助创作”写进KPI。于是AI不再是“你觉得好用就用”的工具,而成了一种必须完成的指标。我们进入了一种“为了科技而科技”的状态:不是因为它真的让作品更好,而是因为“不用AI”会显得落后。格雷伯在《毫无意义的工作》(Bullshit Jobs: A Theory)里把这种处境说得更尖锐:当组织把大量精力花在证明自己“在工作”、完成可展示的指标与流程,而不是在创造真正有意义的成果时,工作就会变得越来越机械——人也越来越难从劳动中获得尊严与意义感。技术在这里不再是帮助人,而是变成一套考核人的制度——它以“创新”的名义,把人的工作方式改造成更可量化、更可比较、更可替换的形式。

更进一步说,当AI不只是“可选工具”,而是被写进流程、写进KPI、写进绩效考核时,它就可能变成一种新型剥削手段:同样的工资,要求更高的产出;同样的工时,塞进更多任务;在“效率提升”的名义下,把原本应该由组织承担的成本——学习成本、适配成本、加速带来的焦虑与风险——转嫁给个人。韩炳哲在《倦怠社会》里提醒我们:当“更快、更强、更能产出”被内化为一种道德命令时,剥削就不再主要来自外部强迫,而会变成一种自我驱动式的过度消耗——你把自己当成项目来优化,也把自己当成机器来催促。你必须更快交付、更频繁迭代、随时在线优化,甚至还要为机器生成的瑕疵背锅。更隐蔽的是,创作本身也在这种“可量化”的考核里被重塑:那些本来最珍贵的部分——反复试错、绕路、停顿、灵光一闪的偏离、与素材长期相处后形成的“火候”和独特风格——很难被KPI计量,于是被当作冗余挤掉。

更重要的是,随之而来的风险也不在于“用不用AI”会把人分成三六九等,而在于 AI 在扩散过程中很容易与一种单一的效率主义标准结盟——把“速度、成本、可量化、可复制”推到评价劳动的中心位置。当“使用 AI”被制度化为默认规范,它就可能成为衡量工作价值的隐性指标:不同类型的劳动被迫用同一把尺子衡量,缓慢的经验积累,复杂的判断与责任,以及难以量化的质量与关系性工作,反而更容易被贬值。换言之,争议的核心不是工具本身,而是工具背后那套把效率当作唯一真理的评价体系。

而当这种逻辑进一步扩张,它改变的不只是工作节奏,更是我们理解“人”的方式:人被当成一个可以不断升级、随时纠错、随时替换的系统;关系被当成可管理的变量;失败与停顿被视作需要清除的噪音。这让我们想起美剧 《西部世界》(Westworld )里的设定:当一个系统能随时重置、随时替换时,人的故事与尊严就会被降格为“可删数据”。它提醒我们的不只是“机器人会不会取代人”,而是当效率与可控成为单一目标,我们会不会先学会把彼此当成可归零的部件。与这种“一键清空”的幻觉形成对照的,是项飙谈“附近”时所说的:“附近不是你挑选出来的社群,而是你必须面对、无法完全绕开的关系。附近就是那个你讨厌却搬不走的邻居。”——生活并不是一套可以自由退订的服务:你必须处理摩擦、承担后果,也必须在不完美的共处里重新学会协商与修补。也正因如此,当我们越来越沉迷于可替换、可优化、可清除的“系统式关系”,更需要警惕的也许不是机器变得像人,而是我们自己正在变得越来越不像人——越来越不愿意为真实的关系与作品停下来、付出、忍耐与负责。

AI生成:预制菜式的标准答案

一位从事设计行业的朋友告诉我,在AI刚出现时,她和同行私下把它叫作“拼尸块”——因为它把无数人的作品与心血拼接融合,却并未得到原作者的允许。那时他们几乎是鄙夷的:觉得它“不尊重原创”。但很快,这种道德判断变得难以维持:AI的产出确实又快又“像样”,身边越来越多设计师也开始使用它,作品速度更快、效果更好。你当然可以指责他们没有底线,可她更直接地说:这并不完全是个人选择,而是“病态的社会所迫”——因为大部分公司只看结果、不问过程。于是 AI 作为一个只追求结果的商业工具,反而在逻辑上是成功的:它大幅压缩设计时间,帮助公司“降本增效”,也把“结果主义”的偏好推向极致。她一度觉得好笑:打开各种App,满眼都是“一个模板刻出来”的作品——整齐、漂亮,却高度相似;而原创的难能可贵,反而在这种同质化中更清晰地显影。

《云图》剧照

更讽刺的是,在所谓“AI大潮”下,她形容自己像被赶鸭子上架:不得不学、不得不用,但用的同时又必须努力和“AI感”割裂开来,逼着自己重新练习如何判断“什么是美”“什么是共鸣”,如何做出她所说的“活人感”。在她看来,AI生成的作品始终缺乏情感与叙事,它的机制仍停留在图像处理与风格拟合这一层:很多由AI主导的设计,看起来“只有美丽”,却没有逻辑、没有故事,也没有真正的关系感。好的设计依然需要以设计师的审美与判断为主导,而AI更合适的位置也许只是辅助:节省时间、生成素材、提高试错效率——但最终把作品从“漂亮”推向“有意义”的那一步,仍然要靠人来完成。

有时候我会把AI生成的文字和作品,想象成一种“预制菜”。它当然能做到快、稳、标准、不出错:结构完整,调味均匀,端上来就能吃。可问题在于,预制菜省掉的不只是备料时间,也省掉了火候——那种在场的试探、临时的调整、偶然的失手与突然的灵光。更重要的是,一旦预制菜被当作“先进”,甚至写进KPI,现炒现做反而会被重新定义为低效与落后。AI的危险也在这里:当它从工具变成圭臬,我们失去的可能不是某项技能,而是许多“慢工”才能生成的经验与思想。我们在批判预制菜的时候,是觉得自己不该被敷衍;可当我们越来越依赖AI生成“标准答案”,把工整、快速、可复制当成优点,难道不是也在生产另一种形式的预制菜吗?

Manus的首席科学家季逸超在访谈中承认,许多Agent的短期客户并不是专业人士,而是“不会做、但又有需求的人”。原因并不神秘:专业工作流由许多环节构成,只要某个关键环节“没做好”,整体体验就会被乘成“零分”。他用“乘法关系”来比喻:在高度协同的链条里,任何一项掉链子都会让结果不可用。于是,一个面向专业剪辑师的端到端剪辑Agent很难一步到位;相对而言,为“不会剪辑但有剪辑需要的人”提供工具——哪怕只是完成粗剪、自动字幕、模板化节奏这类基础环节——反而更容易达到“够用”的效果。这段话的诚实之处正在于:AI的短期价值往往不是替代专业,而是把一些低门槛、可标准化的环节做得更省力,从而扩大“可以做”的人群与场景。但也正因为它主要处理的是基础环节,它的价值更接近一种新型基础设施,而非某种值得无限溢价的“高智能”。所以更不能把“会不会用AI”以及“拥抱新技术的姿态”当成一种文明等级的分水岭,仿佛不用就落后、慢一点就不体面。基础设施的意义在于降低门槛、扩大可达性,而不是反过来变成新的筛子:用它来筛掉那些无法被标准化衡量的人,把差异与缓慢重新命名为“低端”或者“被淘汰者”。

AI 与新的等级生成

这种“新等级”的生成,并不只是抽象判断,它正在许多具体行业里变得可感、可触,甚至带着一种日常生活层面的刺痛。我最近听到两个很“落地”的例子。

一位做外语教学的朋友告诉我:在讲解方法、语法拆解、例句生成这些层面,AI 的确可以替代相当一部分人工。真正难以被替代的,反而是语言在真实交流中流露出来的人类情感:犹豫、试探、幽默、尴尬、关系的亲疏远近——这些不是“文字输出”,而是人在特定情境中完成判断后,带着体温的表达。可如今越来越多的声音在提倡:以后完全不用学习外语了,只需要一台翻译器就可以自如交流。语言于是被简化成一种可外包的表层转换,仿佛字符对应正确就等于沟通完成。但当语言被降格为可一键替代的输出,真正被抹去的其实是人作为主体的思考与情感劳动:那些“温度”和“灵魂”不但被降格为可有可无的点缀,甚至会在效率叙事里被视为需要被压缩、被剔除的“冗余”。

另一位金融领域的从业者也说,在他们的行业里,AI能做的越来越多:信息整理、产品筛选、方案草拟,都可以被算法接管;但“客户陪伴”仍然是目前最难被替代的部分,尤其是面对高净值客户。陪伴并不只是提供建议,而是承接对方在市场波动中的焦虑与犹豫——更重要的还在另一面:当客户投资成功、资产增长、某个决策终于被验证正确时,他同样需要一个人来分享那份喜悦,需要有人能理解这份喜悦背后的风险、忍耐与等待,并在恰当的场合一起庆祝、一起把“成功”转化成关系与信任的加深。很多时候,客户找的不是一份冷冰冰的“最优解”,而是一种被见证、被理解、被共同经历的过程。他开玩笑说:“在东北,很多时候甚至可以陪客户去搓澡——总不能派个机器人去。” 当“陪伴”也被迫写成一种“不可替代的竞争力”时,人类关系本身就被重新商品化了。

这两个例子让我更确信:所谓“AI不能替代的部分”,并不天然更高级,它更像是技术逻辑挤压之下,人类劳动被迫退守的最后领地。而一旦“可被替代”被默认为一种道德判断——等同于“低端”“不体面”“不值得”——新的羞耻也就出现了:你不仅要工作,还要不断证明你的工作里有某种“人味”;你不仅要有能力,还要能解释为什么你的能力不该被自动化。于是,“效率”不再只是手段,而逐渐变成一种新的价值审判:谁被允许慢一点、细一点、有人情味一点,谁又被要求更快、更标准、更像机器一点。

“慢”,作为一种方法

在我们社会科学领域,很多经典的田野调查之所以以“年”为单位,是因为你至少要在一个地方经历完整的四季更替:雨季与旱季、节庆与禁忌、热闹与冷清,才能知道人们如何在不同的节奏里生活。你也要尽可能在场于所有重要的社会时刻:婚丧嫁娶、添丁、迁居、分家、争执与和解;要看到重大仪式如何发生,更要看到仪式之外那些不起眼的日常——例如:很多时候,仪式的“体面”恰恰是女性的劳动堆出来的:她们负责准备、协调、收拾残局,却常常在正式的席面与话语中心被挤到一旁,甚至连进入仪式场域都被禁止。你只有把这些分工与位置看清楚,才会明白所谓“传统”“秩序”并不是抽象的规则,而是话语与沉默如何被分配、情感如何被组织、谁被看见、谁被遮蔽的结果。更重要的是,时间让你看到的不是“一个事件”,而是事件之间的关联:同一套说法在不同场合如何被重复、被修正、被挑战;同一个人今天怎么说,半年后又怎么说;你第一次以为是“规则”的东西,后来如何被现实拉扯、被关系网重新解释。我曾经在一个偏远的离岛做过两年的田野调查,几乎每一天晚上我都会把当天的见闻和思考手打成笔记。整理这些文字至少需要两个小时——很累,很耗时,尤其在经历白天的奔走之后。但这一步对于一篇鲜活的民族志却又那么必不可少:正是在这个过程中,我会发现遗漏的信息,会把分散的细节重新连成线索;一些看似无关的场景,会突然和之前的材料发生呼应;新的疑问、新的概念,甚至下一阶段的调查方向,也常常在打字时冒出来。换句话说,打字并不只是“把口述搬到纸面”,而是一种把经验重新组织、重新理解的过程。那些文字因此带着烟火气:它们不标准、不规范、也不够精练,但它们有灵气——因为它们仍然和身体、和现场、和犹豫、和突然的联想连在一起。

《星球大战2》剧照

而现在,AI 可以在几分钟内把一段语音、一堆碎片整理得工整、标准、几乎不出错。它当然也能提供发散点,但那种发散往往更像一种“模板化的聪明”:正确、周全,却少了现场摩擦出来的意外。问题不在于 AI 做得不够好,问题恰恰在于它做得“太像一个标准答案”——而标准答案往往意味着一种收缩:它收缩掉犹豫、收缩掉绕路、收缩掉那些看似低效却能生成新问题的时间。我们开始以为自己节省了时间,却可能失去了思想生成的条件。詹姆斯·斯科特(James C. Scott) 在《国家的视角》中指出,现代治理最偏爱的往往是“可读性”(legibility):把复杂世界变成可量化、可比较、可管理的简化版本——但这种标准化的代价,往往正是把那些只在细节、关系与语境中才看得见的真实,连同它们的意义一起抹平。

结语

作为一个社会科学工作者,我并不是要否定AI的价值,也不是反对技术进步本身。AI在很多具体情境里确实能节省时间、降低门槛、让更多人获得原本难以触及的能力。问题不在于工具,而在于我们如何使用工具,以及我们用什么来衡量人。当对技术的掌握被默认为一种“优越”,当对效率的追求被当作道德与体面的标准,技术就不再只是帮助人,它开始参与划分等级。我的反对,指向的正是这种把“会不会用AI”“够不够快”当成价值评判尺度的社会气候。

所以我真正担心的并不是“AI会不会取代我”,而是:当AI变成一种道德标准,我们会不会把许多本来正当的劳动、正当的缓慢、正当的非标准,一起打包成“落后”。如果我们把“不会用AI”当作一种缺陷,把“手工”和“慢”当作一种可笑,那么被淘汰的不只是技能,更是一种对人的理解:人不是乘法关系里的某个环节,不该因为某项工具的熟练度就被归类为“零分”。一旦“效率—体面—价值”的链条被固定下来,“低端”就会不再是某个行业或岗位的描述,而会变成一种可扩散的羞耻机制:它可以落到任何人身上——落到没有时间学习的人身上,落到需要慢工出细活的人身上,落到更重视关系、照护、情感劳动的人身上,落到所有无法把自己变成“可量化、可比较、可替换”的人身上。

人类学经典研究里有许多与世隔绝的亚马逊丛林部落社会:没有文字记录,历史不是被写下来、存档、加速迭代的,而是在口述与日常实践中一遍遍被确认——一代人对上一代人的生活秩序做出延续性的肯定。列维-斯特劳斯把它们定义为“冷社会”。与现代工业化的“热社会”不同,冷社会并不将进步或变革视为动力。它们试图“抵销”时间对社会结构的影响。这类社会通过神话和仪式来维持祖先定下的秩序。列维-斯特劳斯将其比作“钟表机构”,无论如何运转,最终都会回到原点。冷社会内部通常较为同质,产生较少的社会分化、阶级斗争或剧烈动荡。那些塑造了当前世界状态的神话事件,最多发生在几代人之前,而其中的主角却始终在场;过去并未退场,而是以另一种方式持续地活在现在。“冷”与“热”并非优劣之分,而是指代不同文化处理时间与变革的方式。

我们当然可以说这是一种“没有技术进步”的时间,但问题在于:没有科技飞跃,生活在亚马逊丛林里的人就不幸福吗?如果幸福并不必然依赖于“更快、更强、更高效”,那么我们今天把AI当成圭臬、把效率当成道德,就更值得警惕。雷·库兹韦尔在《奇点临近》中描绘技术将以指数级增长,把人类推向一个不可逆的加速点——可当一切都在加速、当每个人都被要求跟上指数曲线时,你真的更幸福了吗?还是说,我们只是把生活的节奏交给了增长的逻辑:把缓慢当作落后,把停顿当作懒惰,把不熟练当作羞耻。也许 AI 时代最重要的不是“如何更快”,而是重新夺回一个更困难的问题:当科技不断逼近所谓“奇点”,我们究竟想要的,是更强的工具,还是更可居住的时间?

当我们用AI重新排序世界时——谁被排序到了“低端”?谁被迫背起羞耻?如果技术进步的代价,是把越来越多的人推向“可被替换、可被嘲笑、可被归零”的位置,那我们就必须承认:我们追逐的也许不是更加美好的生活本身,而是一套更精密的筛选机制。真正值得期待的技术,不该只是让少数人更快、更强、更轻松;它更应该让更多人免于羞耻、免于被敷衍、免于被迫加速。

这个世界上,有人畅想着移民火星,把未来想象成更远的星际;也有人想去到海岛和雨林,在另一种时间里重新学习如何生活。

参考书目:

Graeber, David. Bullshit Jobs: A Theory [M]. New York: Simon & Schuster, 2018.

Han, Byung-Chul. The Burnout Society [M]. Stanford, CA: Stanford University Press, 2015.

Kurzweil, Ray. The Singularity Is Near: When Humans Transcend Biology [M]. New York: Viking, 2005.

Lei, Ya-Wen. The Gilded Cage: Technology, Development, and State Capitalism in China [M]. Princeton, NJ: Princeton University Press, 2023.

Lévi-Strauss, Claude. Race et histoire [M]. Paris: UNESCO, 1952.

Scott, James C. Seeing Like a State: How Certain Schemes to Improve the Human Condition Have Failed [M]. New Haven: Yale University Press, 1998.

【声明】我必须承认,这篇文章本身也被 AI 参与过——一些语言的打磨、段落的标题、参考文献的格式整理,都部分借助了 AI 的帮助。写下这句话并不是为了某种道德上的“清白自陈”,而是想揭示一个现实:AI已经不可避免的嵌入到我们最日常的工作里,几乎不可能假装自己置身事外。我并非技术保守主义者,我当然认同 AI作为效能助推器的工具价值。但我更在意的是,当这种技术理性从“辅助手段”异化为“价值准则”,当“即时交付”成了唯一的宗教,那些关乎磨合的损耗、审慎的留白、面对面的生动,或者仅仅只是一个人“我不愿意”的权利,是否正被视作系统里的杂音?某种意义上,这是一篇“借 AI批判AI”的文章:不是为了全盘否定,而是为了警醒——真正危险的从不是工具,而是那套将工具神化为道德、将效率标榜为体面、将人异化为可被归零之指标的评价体系。

    责任编辑:朱凡
    图片编辑:张颖
    校对:施鋆