AI加速色情危機:當孩子們製造、消費深度偽造的同學露骨照片

「十年前,讓課堂陷入混亂的是色情短信和裸照。……而今天,人工智能AI的進步讓製造朋友、同學、甚至老師的「深度偽造」(deepfake)裸體圖像或視頻變得像小孩子過家家一樣簡單。」

這些偽造圖片包括除去身邊熟悉的同學的衣物、讓圖像做出挑逗性動作,或將某人的頭部移植到色情圖片上。莎莉·威爾(Sally Weale)在《衛報》(Guardian)一篇一則報道中寫了以上令人不寒而慄內容。

自2019年以來,LifeSiteNews記者喬納森(Jonathon)一直報道此種集體性的色情危機下可怕的表現形式的興起。

他曾經警告過:「『深度偽造』的興起將不可避免地導致人們製作針對同齡人的合成色情內容。」 然而僅幾年後,他就報道了初中生製作他們同班同學深度偽造色情內容的故事。

去年,他再報道了生成人物裸照的AI應用程式「脫衣」(nudify APP)以及由此引發的創傷、欺凌和不可避免的性勒索。

《衛報》的報道亦揭示了這場危機升級的速度之快。一位老師描述了一起事件:一名十幾歲的男孩拿出手機,從社交媒體上選了一張鄰校女孩的照片,然後用「脫衣」APP對其進行「數字脫衣」。令這位老師震驚的是,男孩甚至毫不掩飾自己的行為,因為他並不覺得自己做的事令人震驚,甚至不覺得可恥:「讓我擔心的是,這已經變得如此常態化。」其他學生舉報了該男孩,聯繫了他的父母並報了警。而受害的女孩甚至沒有被告知。

多起新聞則暗示著這場危機是全球性的:

「去年在西班牙,埃斯特雷馬杜拉地區西南部的15名男孩因使用AI製作女同學的假裸照並發放到WhatsApp群組,被判一年緩刑。」威爾寫道,「約有20名女孩受到影響,其中大多數年僅14歲,最小的只有11歲。」

「而類似情況也發生在澳大利亞,有50名高中生的深度偽造圖像被傳播;在美國,新澤西州的30名女學生發現『她們的色情圖片已被男同學在Snapchat上分享』。澳大利亞一位學生的母親說她的女兒看到那些露骨的性圖片後,驚恐到嘔吐。」喬納森寫道。

而在英國,一項由Teacher Tapp代表《衛報》發起的、對英格蘭4300名中學教師進行的新民意調查發現,約有十分之一的教師發現本校學生在過去一學年裏製作過「深度偽造的露骨性視頻」,其中的四分之三涉及14歲或以下的兒童,十分之一涉及11歲的兒童,還有3%涉及年齡更小的孩子——喬納森引用這些數據說明——「這項技術的獲取和使用是多麼容易」。

今年早些時候,英國女童軍協會(Girlguiding)的一項調查發現,在13至18歲的受訪者中,有四分之一曾看過名人、朋友、老師或自己的露骨性深度偽造圖像。

無論是女孩,還是成年女性,都因這種傷害而感到崩潰。《性別歧視新時代:AI革命如何重塑厭女症》(The New Age of Sexism: How the AI Revolution Is Reinventing Misogyny)一書的作者勞拉·貝茨寫道:「感覺就像有人把你帶走,對你做了某事,而你卻無能為力。」

與此同時,男孩們常常在不知情的情況下作出犯罪行為。在他們成長的世界里,色情內容是正常的——而用AI去製作露骨的深度偽造性圖像僅僅是下一步。

威爾採訪的專家們像往常一樣,對如何應對這場危機束手無策。他們強調教育,卻也承認這無異於「用水槍去撲滅熊熊的森林大火」,與此同時,他們對學校的提供的幫助或禁令能否奏效持懷疑態度。

可以想見的是,教育工作者士氣低落,甚至感到絕望:色情和色情短信已經改變了學校的生態,而「深度偽造色情」現在正在使本已醜陋的危機變得更加切身。沒有任何跡象表明,若無果斷行動,這個問題能夠得到制止。

英格蘭兒童事務專員(The Children’s Commissioner for England)索薩女爵(Dame Rachel de Souza)主張直接禁止諸如「ClothOff」等脫衣AI程式:「孩子們告訴我,光是想到這項技術存在,他們就感到害怕,更不用說被使用了。」

喬納森對蕾切爾表示贊同:「解決色情危機的辦法既極其困難,又異常簡單:我們只需讓這些內容以及相關應用——成為非法即可。」

而朝著這個方向的第一步已經在英國邁出:11月3日,政府向議會提交了《犯罪與警務法案》(the Crime and Policing Bill ),其中包括一項修正案,將包含扼頸或窒息(通常稱為「掐脖子」)的色情內容定為犯罪,並要求技術平台阻止英國用戶訪問此類內容。

這是首次將某類色情內容定為犯罪,理由是:即使雙方自願,它也切實對社會造成危害。這是一個令人鼓舞的先例,因為它幾乎適用於所有硬核色情內容——當然也包括那些即將讓初中成為女孩們的地獄的「脫衣」APP在內。

「色情產業正在摧毀社會,我們必須先摧毀它。」喬納森總結道。

(本文內容翻譯自LifeSite於2025年12月3日文章 )

AI技术促进了deepfake,進而被濫用於色情產業
AI技术促进了deepfake,進而被濫用於色情產業 | 圖片源自網絡