AI加速色情危机:当孩子们制造、消费深度伪造的同学露骨照片

"十年前,让课堂陷入混乱的是色情短信和裸照。……而今天,人工智能AI的进步让制造朋友、同学、甚至老师的"深度伪造"(deepfake)裸体图像或视频变得像小孩子过家家一样简单。"

这些伪造图片包括除去身边熟悉的同学的衣物、让图像做出挑逗性动作,或将某人的头部移植到色情图片上。莎莉·威尔(Sally Weale)在《卫报》(Guardian)一篇一则报道中写了以上令人不寒而栗内容。

自2019年以来,LifeSiteNews记者乔纳森(Jonathon)一直报道此种集体性的色情危机下可怕的表现形式的兴起。

他曾经警告过:"『深度伪造』的兴起将不可避免地导致人们制作针对同龄人的合成色情内容。" 然而仅几年后,他就报道了初中生制作他们同班同学深度伪造色情内容的故事。

去年,他再报道了生成人物裸照的AI应用程式"脱衣"(nudify APP)以及由此引发的创伤、欺凌和不可避免的性勒索。

《卫报》的报道亦揭示了这场危机升级的速度之快。一位老师描述了一起事件:一名十几岁的男孩拿出手机,从社交媒体上选了一张邻校女孩的照片,然后用"脱衣"APP对其进行"数字脱衣"。令这位老师震惊的是,男孩甚至毫不掩饰自己的行为,因为他并不觉得自己做的事令人震惊,甚至不觉得可耻:"让我担心的是,这已经变得如此常态化。"其他学生举报了该男孩,联系了他的父母并报了警。而受害的女孩甚至没有被告知。

多起新闻则暗示著这场危机是全球性的:

"去年在西班牙,埃斯特雷马杜拉地区西南部的15名男孩因使用AI制作女同学的假裸照并发放到WhatsApp群组,被判一年缓刑。"威尔写道,"约有20名女孩受到影响,其中大多数年仅14岁,最小的只有11岁。"

"而类似情况也发生在澳大利亚,有50名高中生的深度伪造图像被传播;在美国,新泽西州的30名女学生发现『她们的色情图片已被男同学在Snapchat上分享』。澳大利亚一位学生的母亲说她的女儿看到那些露骨的性图片后,惊恐到呕吐。"乔纳森写道。

而在英国,一项由Teacher Tapp代表《卫报》发起的、对英格兰4300名中学教师进行的新民意调查发现,约有十分之一的教师发现本校学生在过去一学年里制作过"深度伪造的露骨性视频",其中的四分之三涉及14岁或以下的儿童,十分之一涉及11岁的儿童,还有3%涉及年龄更小的孩子——乔纳森引用这些数据说明——"这项技术的获取和使用是多么容易"。

今年早些时候,英国女童军协会(Girlguiding)的一项调查发现,在13至18岁的受访者中,有四分之一曾看过名人、朋友、老师或自己的露骨性深度伪造图像。

无论是女孩,还是成年女性,都因这种伤害而感到崩溃。《性别歧视新时代:AI革命如何重塑厌女症》(The New Age of Sexism: How the AI Revolution Is Reinventing Misogyny)一书的作者劳拉·贝茨写道:"感觉就像有人把你带走,对你做了某事,而你却无能为力。"

与此同时,男孩们常常在不知情的情况下作出犯罪行为。在他们成长的世界里,色情内容是正常的——而用AI去制作露骨的深度伪造性图像仅仅是下一步。

威尔采访的专家们像往常一样,对如何应对这场危机束手无策。他们强调教育,却也承认这无异于"用水枪去扑灭熊熊的森林大火",与此同时,他们对学校的提供的帮助或禁令能否奏效持怀疑态度。

可以想见的是,教育工作者士气低落,甚至感到绝望:色情和色情短信已经改变了学校的生态,而"深度伪造色情"现在正在使本已丑陋的危机变得更加切身。没有任何迹象表明,若无果断行动,这个问题能够得到制止。

英格兰儿童事务专员(The Children’s Commissioner for England)索萨女爵(Dame Rachel de Souza)主张直接禁止诸如"ClothOff"等脱衣AI程式:"孩子们告诉我,光是想到这项技术存在,他们就感到害怕,更不用说被使用了。"

乔纳森对蕾切尔表示赞同:"解决色情危机的办法既极其困难,又异常简单:我们只需让这些内容以及相关应用——成为非法即可。"

而朝著这个方向的第一步已经在英国迈出:11月3日,政府向议会提交了《犯罪与警务法案》(the Crime and Policing Bill ),其中包括一项修正案,将包含扼颈或窒息(通常称为"掐脖子")的色情内容定为犯罪,并要求技术平台阻止英国用户访问此类内容。

这是首次将某类色情内容定为犯罪,理由是:即使双方自愿,它也切实对社会造成危害。这是一个令人鼓舞的先例,因为它几乎适用于所有硬核色情内容——当然也包括那些即将让初中成为女孩们的地狱的"脱衣"APP在内。

"色情产业正在摧毁社会,我们必须先摧毁它。"乔纳森总结道。

(本文内容翻译自LifeSite于2025年12月3日文章 )

AI技术促进了deepfake,进而被滥用于色情产业
AI技术促进了deepfake,进而被滥用于色情产业 | 图片源自网络