为AI短剧“偷脸”筑起法律防火墙

唐林垚/中国文化报
2026-04-23 16:37

4月20日,爱奇艺宣布,其AI(人工智能)艺人库“纳逗Pro”已吸引超百位艺人入驻,然而,该消息随即遭到多位艺人方集中否认,上演了一场“罗生门”。此次争议也再次引发行业对AI肖像授权、AI短剧“偷脸”、AIGC(人工智能生成内容)内容创作边界及相关法律规范的讨论。本期特邀法学专家学者撰文,分析AI短剧“偷脸”的行业乱象和法律应对。

图片由AI生成

当AI在短剧中创造出真假难辨的面容,并借此演绎命运交响与悲欢离合,可曾有人想过——那张脸真正的主人或许对这一切毫不知情?近年来,AI换脸技术正以前所未有的深度和广度渗透短剧行业,无论是普通人还是网红明星,其面容都可能在不经意间成为算法创作的素材。AI短剧“偷脸”现象已然给法律、伦理和行业秩序带来全面挑战。

AI短剧“偷脸” 危害不可小觑

AI短剧“偷脸”正从偶发的个体侵害逐渐演变为具有产业化、规模化特征的系统性风险,这一趋势体现在4个层面。

侵权客体的数据化与要素化。随着公共图片库的扩容,人脸信息已被异化为可被标准化采集、存储、交易乃至算法化调用的数据生产要素。近期案例表明,部分短剧内容制作方虽然热衷于对特定个体进行偶发性模仿,但更倾向于通过技术手段批量爬取并建立海量人脸生物识别信息数据库,以便根据制作需求随时调用。在此背景下,人脸信息正逐步从与特定自然人的人格关联中脱离出来,成为产业链上下游可随意取用的短剧制作“原料”。

侵权行为的链条化与责任分散化。在AI短剧领域,一条完整的侵权产业链条涵盖“数据非法获取/交易”“AI模型训练/调校”“深度合成内容制作”“多渠道网络分发”等多个环节。参与者涉及数据经纪人、技术提供方、内容制作方、传播平台等多方主体,且通常具有跨区域特征。对于这种链条化、“去中心化”的作业模式,传统侵权法律法规中以“直接近因”为焦点的追责体系难以精准锁定责任主体、追溯侵权源头进而界定连带责任范围。

损害后果的弥散性与难以救济性。AI短剧“偷脸”的损害不仅体现在对特定主体肖像权、名誉权的侵害,更延伸至对其个人信息权的持续性剥夺,以及因数字分身被用于不良语境(如饰演反派)而导致的无法用金钱衡量的社会评价降低。例如,在AI短剧《桃花簪》中,商业模特“七海”的脸被移植于满脸麻子、虐待动物的“何掌柜”角色,其所遭受的实际损害已超过肖像权侵害,扩散为对其职业声誉的长期侵蚀。

侵权技术的低门槛与普及化。深度合成技术的快速演进与工具扩散,大幅降低了AI短剧“偷脸”行为的技术门槛和经济成本。以往需要专业团队完成的特效,如今可通过开源模型、“傻瓜式”应用程序等轻易实现,侵权主体从专业制作机构下沉至小型工作室甚至个人,进一步加剧了AI短剧“偷脸”的发现难、取证难和执法难。

是否侵权 现行法适用存困境

纵然AI短剧“偷脸”危害不可小觑,但现行法律体系在应对时存在明显短板,具体体现为四重困境。

“可识别性”标准的行为定性困境。民法典肖像权侵权以“可识别性”为核心要件。然而,生成式人工智能可通过对抗生成网络、扩散模型等技术,合成出虽非精确复刻、但融合了目标人物关键面部特征的“非真实存在”形象。例如,当AI生成的形象同时融合多人面部特征时,其“可识别性”是指向单一主体还是复数主体?现有标准缺乏针对算法合成特性的精细化解释,法律定性存在模糊地带。

损害赔偿框架的损害量化困境。人格权侵害的损害赔偿主要围绕财产损失与精神损害抚慰金展开,但现行损害赔偿制度以填平实际损失为主,在精神损害赔偿标准相对固化、惩罚性赔偿适用严格的背景下,相关规则无法就AI短剧“偷脸”产生的弥散性、非物质性损害提供充分救济,违法成本与侵权收益严重失衡。不仅如此,AI短剧“偷脸”视频还可能借助互联网不受约束地无限复制与不断传播,这种具有持续性和不可逆性的损害难以被现有损害赔偿计算方式所涵摄。

部门规章与基础法律的规则适用困境。面对AI短剧“偷脸”这一新的侵权形态,我国现行法律体系并非完全空白,但相关法律法规尚未形成归位尽责的梯次衔接。例如,《人脸识别技术应用安全管理办法》主要规制“识别”场景,对“生成”场景的覆盖力有不逮;《互联网信息服务深度合成管理规定》的标识义务常在实践中被弱化为不显著的水印,且对未标识行为的罚则威慑有限。此外,个人信息保护法、民法典、著作权法、《生成式人工智能服务管理暂行办法》等法律法规在归责原则、执法程序、处罚标准上尚未形成有机统一的监管体系。

产业链复杂化下的责任分配困境。在多方参与的AI短剧“偷脸”产业链中,各主体法律责任边界模糊。技术提供方往往以技术中立抗辩,主张其仅提供工具;内容制作方则辩称其使用的是来自第三方数据库的已清洁版权素材或者其生成结果不具“可识别性”。网络平台虽依据“通知—删除”规则享有一定的责任豁免,但AI生成内容的隐蔽性与海量性,使得权利人“通知”的前置成本极高。鉴于产业链条的复杂性,现行法很难为各方主体合理划定差别化注意义务与法律责任。

应对“偷脸” 要转向系统性治理

为应对AI短剧“偷脸”的挑战,法律应对思路须从侧重于“事后侵权救济”的个体范式,转向强调“事前风险预防、事中过程管控、事后多元追责”的系统性治理范式。具体路径包含以下4个维度。

在立法层面构建以“风险”为准绳的分级义务体系。处理人脸信息用于AI生成内容,当属个人信息保护法中的高风险个人信息处理活动。以此为基础,立法者可根据人脸信息处理活动的风险等级,对处理者施加分层的法律义务。一是强制单独同意与目的限定,人脸信息处理者须就人脸信息使用的具体场景、期限、角色类型获取明确、单独的同意,杜绝“一揽子授权”;二是算法影响评估义务,大规模使用AI生成人脸的内容制作方,应在项目启动前进行算法影响评估,重点评估视频内容可能对人格权益造成的潜在负面影响;三是最低报酬支付义务,可借鉴德国著作权法对肖像权的延伸保护,为权利人创设其人格要素被商业化使用的、独立的、标准化的报酬底线,尽量保证人脸使用行为的等价有偿。

在司法层面发展适应技术特性的证据规则与裁判标准。司法机关应通过司法解释和案例指引,实现规则的精细化:首先应拓展“可识别性”内涵,引入“综合识别标准”,即法官在行使自由裁量权时,应结合角色设定、剧情语境、目标观众群体认知等因素进行综合判断;其次是合理分配举证责任,在权利人已提供初步证据证明存在高度侵权可能时,可适用举证责任倒置,将“所使用人脸数据来源合法”及“已获有效授权”的举证责任,转移至被诉的内容制作方与技术提供方;最后是完善损害计算细则,在计算损失时,可参考虚拟角色许可费市场标准、侵权方所获利益,以及为消除影响所需合理费用等综合确定,并在恶意侵权、情节严重时,积极适用惩罚性赔偿。

在执法层面实施穿透式监管与协同治理。行政监管应从对单一内容或行为的监管,转向对数据处理全链条的穿透式监管。一方面,强化源头治理,切断侵权素材来源。另一方面,压实平台过程管控责任,大型内容分发平台应建立与其规模相匹配的、主动的AI生成内容监测机制。与此同时,还应建立跨部门协同、信息共享、线索移送、联合约谈、协同执法的常态化机制,形成监管合力。

在社会层面培育多元参与的制衡生态。具体而言,应推动行业自治,鼓励短剧行业协会牵头制定人工智能生成内容伦理与合规准则,建立行业黑名单与自律惩戒机制;同时,增强公民对个人信息、肖像权益的自我保护意识与能力,营造尊重数字人格权的社会氛围,提升公众数字素养。作为对行业自治与普法教育的补充,有必要激活AI短剧“偷脸”领域的公益诉讼制度,对侵害社会公共利益、涉及不特定多数人权益的规模化AI短剧“偷脸”行为进行司法规制。

总体而言,应对AI短剧“偷脸”现象,需超越对既有规则的零修碎补,构建覆盖数据生命周期、贯穿产业链条、融合多元主体的系统性风险规制体系。唯有通过立法、司法、执法与社会共治的协同演进,方能在鼓励技术创新与守护人格尊严之间建立起稳固的法治护城河,进而引导AI短剧行业走向健康、可持续的发展轨道。

(作者系中国社会科学院法学研究所副研究员、中国社会科学院大学副教授)

图片由AI生成

原标题:《为AI短剧“偷脸”筑起法律防火墙》

    责任编辑:李敏