5元一张脸,AI换脸制黄产业的法律漏洞:害了那么多人,谁来担责?
你发在朋友圈或QQ空间的照片,有没有想过,有人会用它做什么?
近日,封面新闻记者历时一个多月,深入暗访了7个活跃于QQ群的AI换脸制黄群组,掀开了一条几乎在阳光下运作的地下产业链。群成员合计超过6000人,最大单群人数达3400余人,产品明码标价,从5元一张换脸图片,到288元一套含视频制作的"全套工具包",交易规范,甚至有商家将商品挂在持有ICP备案的正规电商平台上公开出售。
更触目惊心的是受害者的遭遇——女大学生塔塔(化名)的生活照被陌生人用AI篡改成色情图片,上传至境外社交网站广泛传播。她花了大量时间和精力找到犯罪嫌疑人,对方虽然道歉赔偿并删除了照片,但始终未能让其承担任何刑事责任。
这件事揭开了一个让人不安的现实:在AI换脸技术极度普及、工具极度廉价的今天,受害者的脸随时可能被拿去"生产内容",而法律追责的路却走得异常艰难。
一张照片,5元,几分钟
记者调查显示,这些群组通常通过短视频平台发布擦边视频引流,把潜在买家引导至QQ群。进群后,商家会向群员推销各类产品:用于绕开AI内容审查的"焚决"提示词、手机版动图套餐(90元)、含"一键脱衣"功能的产品包(120元),以及电脑版工具包(166元)。而所谓"定制换脸",只需上传一张目标人物的照片,付5元,几分钟内便可取货。
记者测试了所谓"焚决"提示词——这是一种专门用来绕过大模型内容审查机制的特殊指令,6条提示词中有3条成功让AI生成了色情图片。AI安全专家指出,大模型外围的"护栏"受限于算力和语义理解能力,并非无懈可击,而攻防双方的博弈仍在持续迭代,不存在一劳永逸的解决方案。
更值得警惕的是,部分卖家已经把生意做得相当"正规"。某商家将工具包挂在一家持有ICP备案和增值电信经营许可证的数字商品平台,收款方显示为"上海尚亿咖网络科技有限公司"——一家成立于2024年的注册资本50万元的正规公司。商家用"工作流""会员群"等模糊描述掩盖违规商品,而平台注册成为商家"仅需手机号,无需任何审核"。
受害者的处境:维权成本极高,追责却无门
塔塔的经历并不是孤例。全球范围内的研究数据显示,网络上所有深度伪造视频中,超过95%是色情内容,而99%的主要受害角色是女性。这不是偶然的数字,背后是系统性的、有组织的侵害。
然而受害者一旦遭遇此类事件,面临的困境相当现实:
证据固定难。色情内容往往托管于境外平台,国内难以直接取证,举报后的删除速度也远赶不上传播速度。
追责主体不明确。制图的人、卖工具的人、出借账户收款的公司、放任商品上架的平台,各方责任如何划分,现行法律没有给出清晰的答案。
没有专门机构援助。受害者只能自行向各平台逐一举报,既没有统一的投诉渠道,也缺乏专门的政府机构介入协助下架。
刑事追责空白最为明显。目前中国法律中并不存在"制作传播深度伪造色情内容"这一独立罪名,受害者只能援引散落在各部法律中的条款寻求救济,维权成本极高,结果也难以预期。
现行法律能管到什么程度
从民事角度看,《民法典》第1019条明确规定,任何组织或个人不得以丑化、污损或利用信息技术手段伪造等方式侵害他人的肖像权;第1010条也保护自然人的人格尊严。换言之,用AI换脸技术将他人面部合成到色情内容中,构成肖像权侵权,受害者有权要求停止侵害、赔偿损失、赔礼道歉。
但民事诉讼面临一个现实问题:侵权者往往匿名,溯源成本极高;境外平台不受国内司法管辖;即便找到了人,赔偿金额往往也杯水车薪。
从刑事角度看,情节严重的AI换脸侵权行为,目前只能参照适用以下条款:
若将受害者的图像散布至大量人群,可能构成《刑法》第246条规定的侮辱罪或诽谤罪,但这两项罪名通常属于自诉案件,举证责任在受害者一方,且"情节严重"的认定门槛不低。
若侵权者为了制图而非法获取了受害者的个人信息,则可能触犯《刑法》第253条之一的侵犯公民个人信息罪。
若将色情内容用于敲诈勒索,则适用《刑法》第274条。
问题在于,仅仅制作和传播深度伪造色情内容的行为本身,在现行刑法体系中没有对应的独立罪名。这是一个明显的立法空白。
监管层面,《互联网信息服务深度合成管理规定》(2023年施行)要求服务提供者在提供人脸编辑功能时,须提示用户取得被编辑者的"单独同意",但记者实测表明,某AI平台在用户上传真人照片完成换脸操作时,全程未收到任何提示。《生成式人工智能服务管理暂行办法》要求服务提供者承担内容安全主体责任,但90%合格率的标准既缺乏公开透明的核查机制,执行效果也难以评估。2026年1月1日生效的《网络安全法》修订版首次在基础性法律层面写入AI条款,但在司法实践中如何落地,仍有待观察。
平台的责任,是不是被低估了
北京千千律师事务所律师汪姝文在媒体采访中指出,涉案视频平台若存在推流机制且长期放任违规内容传播,已涉嫌违反《网络安全法》;若受害者举报后平台未及时处理,则对损害扩大部分须承担民事连带责任。
这个判断是有法律依据的。《网络安全法》第47条要求网络运营者对"法律、行政法规禁止发布或者传输的信息"立即停止传输、消除内容,并向有关主管部门报告;情节严重者,可被吊销相关业务许可证或营业执照。
那么,商品挂在正规平台、公司注册了、有ICP备案——这些形式上的合法性能免责吗?显然不能。商家用"工作流""会员群"的说法打掩护,如果平台的审核机制形同虚设,仅凭手机号即可开店,对明显违规的商品视而不见,那平台对损害结果的发生是有过错的,须承担相应的侵权责任。
AI平台同样面临责任追问。《深度合成管理规定》明确要求,提供人脸编辑功能时须提示用户获得被编辑者同意。平台若对这一强制性要求置若罔闻,不仅面临行政处罚,在受害者遭受损害时也难逃民事连带责任的追究。
各方观点:管还是管不了
受害者群体和女性权益倡导者的呼声很清楚:需要专门立法,需要专门罪名,需要专门的举报援助机构,需要平台承担更重的举证责任,而不是让受害者一个人扛着证据不足的困局去打一场马拉松式的官司。
技术行业的声音则更复杂。AI研究人员指出,"护栏"是可以绕过的,技术层面的对抗不可能彻底消除,过度管制反而可能误伤合法的换脸应用场景——比如影视后期制作、虚拟形象授权等。
平台方通常的说法是"已有内容审核机制""会持续优化治理",但现实数据给出的答案是:记者暗访的7个群组在超过一个月的时间里持续活跃,期间没有任何一个被平台主动关停。
监管部门的态度在收紧。国家互联网信息办公室已就记者举报的线索接受受理,2026年中国网络文明大会也将整治AI风险列为重点议题之一,最高法在近期发布的网络暴力典型案例中也开始收录"AI拟声换脸"等新型侵害行为。但从关注问题到形成有效规制,这中间的距离还不小。
法律评论:立法跑不赢技术,受害者在等什么
AI换脸制黄这件事,暴露的不只是技术滥用,更是一种制度性的失守:技术门槛低到5元,法律追责高到几乎无门,这中间的落差,由受害者一个人承担着。
从法律视角来看,当前最紧迫的问题有三个。
一是罪名缺位。制作、传播深度伪造色情内容,性质上是对人格尊严和肖像权的严重侵害,但现行刑法没有对应的独立罪名。"侮辱罪""诽谤罪"是自诉罪名,举证责任在受害者;要转公诉,还需达到"严重危害社会秩序"的门槛,现实中绝大多数案件都跨不过这道门槛。专门立法的讨论在国内法学界已持续多年,但落地仍无时间表。
二是平台责任边界模糊。"通知-删除"规则固然是平台免责的基础,但当平台的商业模式本身在客观上助推了违规内容的传播——无审核开店、算法推流——单凭事后删除恐怕不够。立法层面应当考虑引入"知情且获益即担责"的更严格标准,倒逼平台在事前把好关。
三是救济机制缺失。受害者一旦遭遇AI换脸侵权,应当有一条清晰、低成本的救济通道:统一的投诉入口、专项快速删除机制、跨境取证协助渠道。目前这些几乎是空白。
技术跑得快,立法总是慢半拍,这是现实。但"慢半拍"不应该变成"缺席"。每一个等待法律给出答案的受害者,都在用亲身经历告诉立法者:这个漏洞,已经够大了。
如果你遭遇了AI换脸侵权
- 第一步,固定证据:截图、录屏、公证保全,记录侵权内容的网址、发布账号、传播时间。
- 第二步,向平台举报:同时向内容平台和托管平台举报,要求紧急下架。
- 第三步,向网信部门投诉:登录"网络违法犯罪举报网站"(www.12377.cn)正式举报,留存受理凭证。
- 第四步,寻求法律援助:委托律师发送律师函,必要时提起民事诉讼,主张肖像权侵权赔偿及精神损害赔偿。
- 第五步,报警:若侵权行为涉及敲诈、散布淫秽物品牟利等犯罪情节,应直接向公安机关报案。
相关法律条文速查
- 《民法典》第1019条:禁止以信息技术手段伪造等方式侵害他人肖像权
- 《民法典》第1010条:禁止以性骚扰方式侵害他人人格尊严
- 《刑法》第246条:侮辱罪、诽谤罪(情节严重可追刑责)
- 《刑法》第253条之一:侵犯公民个人信息罪
- 《互联网信息服务深度合成管理规定》第14条:人脸编辑须取得被编辑者单独同意
- 《网络安全法》第47条:平台须停止传输违法信息并向主管部门报告
律师说
AI换脸侵权在民事层面已有法可依,难的不是法律规定,而是举证和执行。受害者在证据固定上越早动手,维权成功的概率越高。如果涉及的是有组织的制作、销售行为,刑事报案也值得尝试,公安机关对于"散布淫秽物品牟利"等情节仍有追诉空间。
龚安义律师 | 广东知恒律师事务所高级合伙人 | 微信/电话:13537621972