4月12日,央视《财经调查》把AI造黄这条产业链扒了个底朝天。
有人在网上公开兜售AI色情视频制作教程,一张图片或几段文字,就能“手搓”出各种大尺度视频。
把技术用在歪门邪道上,这种事情并不新鲜。但这一次的规模和门槛,确实让人后背发凉,低到不可思议。
包教包会,AI造黄比点外卖还简单
9.9元就能买一套“提示词”,几分钟就能生成一个半裸女性的跳舞视频。整个生成过程,平台没有任何拦截。这不是某个地下论坛的黑产,而是主流AI应用上的普遍漏洞。
从社交平台到AI工具,从国内应用到境外软件,造黄产业链已经织成了一张网。
网上的教程还贴心地教你怎么规避监管,用境外软件、本地离线部署。就是告诉你:放心搞,我教你跑。这不是技术普及,这是教唆犯罪。
受害者的脸,可能是你我的脸
2025年7月,“南方+”报道,香港大学一名法律系学生,用AI制作了700多张裸露色情照片,受害女性达20至30人,包括自己的同学和老师。
2025年9月,据环球网、南方都市报报道。台球运动员王思诺深陷AI造黄谣风波,不得不委托律师保全证据。
2025年11月,青岛保时捷女销冠牟女士被恶意合成不雅视频,电话微信被“轰炸”,被迫公开维权。
甚至还有更早的案例,白某某用AI“一键去衣”技术,伪造了近7000张裸照,以1.5元一张的价格卖给351个人(来源正义网)。这些受害者的面孔,可能是你的同学、你的同事,甚至是你自己。
法律追责,追到谁头上?
技术的滥用已经从个体行为升级为一条完整的黑色产业链。上游有人生成内容,中游有人打包贩卖,下游有付费会员群和定制服务。
在社交平台上,AI擦边教程的标题直白得令人发指,“日入5位数”“全网最强大尺度”。这不是什么地下交易,这是在各大平台光明正大地做生意。
而最让人不安的是,法律追责在技术上存在巨大的灰色地带。国内首起AI开发者涉黄获刑案——Alien Chat,开发者和运营者因“制作淫秽物品牟利罪”分别获刑四年和一年半。
但这起案件的核心争议至今没有定论:当用户通过指令让AI生成淫秽内容时,淫秽内容的“生产者”究竟是发出指令的用户,还是开发AI的开发者?
有观点认为开发者只是提供了“可能产生违法内容的工具”,而非直接生产了违法内容。这种模糊地带的存在,让大量造黄行为游走在法律的缝隙中。
技术无罪,但用技术的人有
AI是一个工具,但工具的使用方式和背后的动机,反映的是使用者的道德底线。
当有人把一张普通的生活照变成恶心的色情视频,当有人用AI技术批量制造针对普通女性的黄谣,当有人在社交平台上公开兜售造黄教程并教人如何逃避追责时,这已经不仅仅是技术滥用的问题。
法律的模糊地带需要被清晰化,谁生产、谁传播、谁获利,一条线锁死。平台的责任需要实质化:别等曝光了才删,别等报警了才查。社会的追责意识需要被唤醒:看到造黄教程,举报;看到擦边生意,抵制。
AI不是用来造黄的。如果连这点底线都守不住,那所谓的科技进步,不过是在给龌龊的人性打辅助。