脸被AI"偷"进短剧,你有权追责:AI换脸侵权的法律底线在哪里?
【深圳律师导读】近期,多名网友发现自己在社交平台发布的照片,在毫不知情的情况下被AI技术"偷走",出现在微短剧中扮演丑角、反派,形象遭到恶意丑化。这一现象引发广泛关注,也折射出AI技术滥用背后的严峻法律问题。作为深圳律师,本文将从法律角度深入解析:AI"偷脸"究竟侵犯了什么权利,普通人又该如何维权?
一、一场"偷脸"风波:事情是怎么发生的
2026年3月底,一位喜欢发布汉服妆造写真的网友在刷短视频时,突然发现屏幕上有一个陌生角色——外形、妆容、发型和头饰,与自己几个月前发在社交平台上的写真照高度相似。这个角色出现在AI短剧《桃花簪》的第11、12集,被设定为"身材短小粗胖、游手好闲、好色"的丑角,台词中充斥着对该人物的嘲讽与贬损。
该网友当即发帖维权,随即引发网络热议。没过多久,另一位商业模特博主"七海"也出来发声——她的妆造形象同样出现在《桃花簪》中,被塑造成一个虐待女性、伤害动物的反派角色。对于以容貌和形象为核心职业资产的模特而言,这无疑是一记重击。
舆论发酵后,涉事短剧的相关集数画面随即被替换为新形象,但原版内容已在网络上留存并传播。事实上,被"偷脸"的并非只有这两人。记者调查发现,AI短剧制作行业中存在一种惯常做法:为了让AI生成的角色形象更加逼真,制作人员会直接抓取网络上的公开照片作为参考底图,而非仅通过文字描述进行生成。当需要塑造负面角色时,他们还会刻意叠加"大痣、龅牙、眯眯眼"等特征加以丑化,进一步放大了侵权风险。
更令人不安的是,这一现象背后还隐藏着一条灰色产业链。受AI短剧冲击,横店部分群演戏约减少、收入下降,有人竟以500元的价格将自己的"脸权"卖给AI短剧制作公司——这意味着,AI短剧使用的"人脸"来源更加多元,溯源追责也更加复杂。
· 涉事短剧:《桃花簪》(AI短剧)
· 维权当事人:汉服妆造师白先生、商业模特"七海"
· 侵权方式:未经授权,将网络公开照片用于AI生成短剧角色,并进行丑化处理
· 涉事集数:第11、12集,事后已替换相关画面
· 事件起因:AI短剧制作行业以低成本获取人脸数据的普遍做法
二、各方如何看待这件事
当事人:愤怒与无力感并存
两名受害者的情绪可以用"震惊"来形容。她们都坦言,此前从未想到,仅仅因为在网上发了几张生活照,就会被人拿去"造脸",还被丑化成负面角色供人娱乐。"七海"尤其担心职业影响——作为商业模特,形象就是饭碗,这种恶意丑化一旦扩散,可能直接动摇她的接单来源和品牌口碑。
网友:细思极恐,人人自危
此事迅速在社交媒体上发酵,大量网友留言表达不安:"以后谁还敢发照片?""AI盯上了普通人,因为我们没有钱、没有律师、维权成本太高。"也有人开始检查自己过去发布的写真是否存在被盗用的风险。事件的核心恐惧,在于技术的门槛越来越低,而个人维权的成本却依然居高不下。
行业:技术省事,责任缺位
受访的短剧制作公司负责人对此态度不一。有人承认"参考图比纯文字描述出来的效果好得多",直接使用网图是为了节省制作成本和时间;也有公司负责人声称不会购买"脸权",并表示会尽量使用无版权素材。但这类行业自律声明,在监管真空面前显得苍白。
专家:维权难,但不是没有路
中南财经政法大学知识产权学院副院长徐小奔等专家指出,此类案件最大的挑战在于举证——AI生成的形象并非照单全收,往往带有一定随机性和"艺术处理",如何证明剧中角色与受害者具有足够的相似性,是诉讼胜败的关键。但法律并不要求"完全一致",只要具有"公众可识别性",就可以认定构成肖像侵权。
三、法律怎么说:AI"偷脸"碰了哪些红线
(一)肖像权:最直接的侵权
根据《中华人民共和国民法典》第一千零一十八条,自然人享有肖像权,未经肖像权人同意,不得制作、使用、公开其肖像。第一千零一十九条更进一步明确,任何组织或个人不得以"利用信息技术手段伪造"等方式侵害他人肖像权。
这里有一个值得关注的法律细节:条文明确将"信息技术手段伪造"列为侵权方式,这意味着立法者在制定《民法典》时,已经预见到了AI换脸类侵权行为的存在,并将其纳入了保护范围。换言之,制作方不能以"这是AI生成的,不是真人,与肖像权无关"为由进行抗辩——AI换脸本质上是"利用信息技术手段伪造"他人形象,法律早有明文。
(二)名誉权:丑化行为的另一重侵害
如果说肖像权保护的是"你的脸不能被乱用",那么名誉权保护的则是"你的形象不能被乱黑"。《民法典》第一千零二十四条规定,民事主体享有名誉权,任何组织或个人不得以侮辱、诽谤等方式侵害他人名誉权。
在这起案件中,制作方将受害者的外貌特征用于塑造"游手好闲、好色"乃至"虐待女性、伤害动物"的反派角色,客观上将受害者的社会评价与这些负面属性绑定在一起。即便没有使用受害者的真实姓名,只要"外貌高度相似、公众能够识别",就存在名誉侵权的法律风险。这种双重侵权的叠加,让侵权行为的恶意程度更高,维权时主张的赔偿金额也更有支撑。
(三)个人信息保护:底层的法律支撑
《个人信息保护法》将人脸等生物识别信息列为"敏感个人信息",对其收集、处理设置了更为严格的要求,必须取得个人的"单独同意",且应当具有特定目的、不得超范围使用。AI短剧制作方直接抓取网络公开照片用于模型训练或角色生成,既未告知信息主体,更谈不上取得同意,在这一层面同样构成违法。
(四)责任主体:不止制作方,平台也难逃
侵权发生后,一个常见的推诿现象是:制作方说"是AI自动生成的,我们不知道",平台说"内容是第三方制作的,我们只是载体"。这种责任的相互推卸,是受害者维权最常遭遇的墙。
但法律并不支持这种推卸。对于制作方而言,无论是直接使用照片还是将其作为AI生成的参考底图,只要最终形象与权利人高度相似且未经授权,就构成侵权,不能以"AI技术"作挡箭牌。对于平台而言,依据《电子商务法》的规定,平台经营者对平台内发布的内容负有合理的审查义务,对于明显的侵权内容如不采取必要措施,需要承担连带责任。
AI"偷脸"侵权的法律依据一览
| 侵权类型 | 适用法律 | 核心条款 |
|---|---|---|
| 侵犯肖像权 | 《民法典》 | 第1018条、第1019条(禁止以信息技术手段伪造肖像) |
| 侵犯名誉权 | 《民法典》 | 第1024条(禁止侮辱、诽谤侵害名誉权) |
| 侵犯个人信息权益 | 《个人信息保护法》 | 第26条、第28条(人脸等生物识别信息须取得单独同意) |
| 平台连带责任 | 《电子商务法》 | 第45条(知道或应当知道侵权仍不采取措施须承担连带责任) |
四、律师评论:技术不是法外之地,但维权需要方法
从法律文本来看,现行法律对AI换脸侵权的规制已经相对完备——《民法典》明确将信息技术伪造行为列入侵权范畴,《个人信息保护法》对生物识别信息设置了严格保护,《深度合成技术管理规定》也要求深度合成内容需标注来源并取得授权。法律的"武器"并不缺乏。
真正让人忧虑的,是执行层面的鸿沟。普通受害者面临的现实困境相当具体:侵权主体难以锁定(很多AI短剧制作方是注册在边缘地带的小工作室,甚至是个人账号运营);AI生成形象与原始照片之间的"相似性"需要专业鉴定;平台投诉流程繁琐且往往只下架而不追责;精神损害赔偿的数额通常不高,很难覆盖维权成本。
这种"维权理论上可行、实践中代价高昂"的困境,正是侵权泛滥的土壤。法律专家提出"举证责任倒置"的建议——让制作方证明其使用的形象是合法授权或无意为之,而非让受害者自证被侵权——这一思路值得重视。在数字内容领域,侵权方掌握着技术和数据,受害者往往处于信息劣势,将证明责任整体压在受害者身上,本身就是不公平的。
另一个值得关注的结构性问题,是AI短剧行业的内容审核机制几乎形同虚设。大量微短剧在平台上线前,缺乏对AI生成角色来源的有效审查,侵权内容往往在发酵之后才被下架,而不是在发布前被拦截。这种"事后补救"模式,对受害者而言代价已经发生,难以弥补。建立AI生成内容的前置审核制度,以及要求平台标注"AI生成演员",是降低侵权风险的可行路径,但需要平台自律与监管压力双轨并进。
维权需警惕的几个误区
- 误区一:"AI生成的,不算肖像"。法律明确将信息技术手段伪造纳入肖像权保护,AI生成的高度相似形象同样受法律保护。
- 误区二:"照片是公开发布的,就失去保护"。公开发布不等于授权他人商业使用,更不等于允许他人丑化自己的形象。
- 误区三:"没有经济损失就告不了"。即便没有直接经济损失,受害者仍可主张精神损害抚慰金及维权合理费用(公证费、律师费等)。
- 误区四:"只能告制作方"。如果平台知道或应当知道侵权内容存在而未采取措施,可以将平台列为共同被告。
五、普通人的维权路径:从发现侵权到提起诉讼
第一步:立即固定证据
发现疑似侵权内容后,第一时间完整录屏,保存侵权视频的链接、账号名称、播出平台、视频标题及相关集数。同时,保留好自己原始照片的发布记录(含发布时间),作为"先发布"的时间证据。必要时,可通过公证机构对侵权内容进行电子公证存证,增强证据效力。
第二步:向平台投诉,要求下架
向视频平台提交侵权投诉,提供原始照片与侵权截图的比对,要求平台下架涉侵权内容。下架可以及时阻断传播,减少损害扩大。但需注意:平台下架不代表侵权问题已经解决,后续追责仍需通过法律途径。
第三步:确定侵权主体,准备起诉
通过工商信息、平台主体信息等渠道查明侵权方的具体身份(公司名称、注册地址)。若无法直接确定制作方,可将发布平台列为共同被告,借助诉讼程序要求平台披露上传方信息。
第四步:提起民事诉讼,主张权利
可依据《民法典》肖像权、名誉权条款提起侵权诉讼,主张:停止侵权(永久删除相关内容);赔礼道歉(书面或公开声明);赔偿损失(包括精神损害抚慰金、合理维权费用)。赔偿金额根据侵权程度判断,轻微情形通常在数千至一万元,若侵权内容传播量大或丑化程度严重,可主张一万至数万元不等。
律师实务建议
对普通网友:在社交平台发布照片时,建议添加水印、设置隐私权限,减少原图外流。一旦发现被盗用,不要第一时间联系对方"私了",而应先固定证据再决定维权方式。精神损害赔偿诉讼成本并不低,若金额较小,可优先选择平台投诉和行政举报(向网信办或相关监管部门);若形象被严重丑化或造成职业影响,建议委托专业律师介入。
对短剧制作方:使用AI生成角色时,务必做到全程可溯源——使用授权底图,留存使用授权记录;禁止直接抓取公开照片作参考;负面角色的形象设计应彻底去除可识别的真实人物特征。否则,一旦发生侵权纠纷,不仅面临民事赔偿,还可能触发《个人信息保护法》的行政处罚。
对发布平台:平台对AI生成内容应建立更完善的前置审核机制,包括对"AI生成演员"进行标注,对高风险内容(负面角色、真实人物高度相似等)进行重点筛查。仅靠事后投诉处理,不足以履行平台应尽的注意义务。
六、写在最后
AI技术的发展不可阻挡,但技术进步不能以牺牲个人权益为代价。每一张在网上公开发布的照片,背后都是一个有尊严的真实的人——他们不是AI训练的素材库,更不是可以随意取用的"人脸资源"。
这起事件的意义,不仅在于两名受害者能否得到赔偿,更在于它将一个此前沉默的行业乱象推到了公众视野中:AI短剧制作行业对人脸数据的粗暴使用,早已习以为常,只是缺乏足够的舆论压力和监管约束。这一次,几张汉服写真照"撬动"了一场关于AI伦理与法律边界的公共讨论,或许正是推动规则完善的契机。
法律从来不会自动保护权利,权利的实现需要每一个人去主张。如果你发现自己的形象被AI滥用,请记住:你有权追责,而且有法可依。
免责声明:本文仅供普法参考,不构成具体法律意见。如有具体法律问题,请咨询专业律师。
作者:龚安义律师 | 广东知恒律师事务所高级合伙人 | 深圳律师
联系方式:微信/电话 13537621972