True Crime TikTok: Жертвы дипфейков искусственного интеллекта — кошмар наяву
ДомДом > Блог > True Crime TikTok: Жертвы дипфейков искусственного интеллекта — кошмар наяву

True Crime TikTok: Жертвы дипфейков искусственного интеллекта — кошмар наяву

Oct 11, 2023

Автор: Эй Джей Диксон

«Бабушка заперла меня в духовке при температуре 230 градусов, когда мне был всего 21 месяц», — говорит ангелоподобный ребенок с огромными голубыми глазами и цветочной повязкой на голове в видео TikTok. Девочка, которая говорит очаровательным детским голосом под жалобную мелодию песни Дилана Мэтью «Love Is Gone», называет себя Роди Мари Флойд, маленькой девочкой, которая жила со своей матерью и бабушкой в ​​Миссисипи. Она вспоминает, что однажды она была голодна и не переставала плакать, что побудило бабушку поставить ее в духовку, что привело к ее смерти. «Пожалуйста, подпишитесь на меня, чтобы больше людей узнали мою настоящую историю», — говорит малышка в конце видео.

Ребенок на видео, конечно, ненастоящий: это создание, созданное искусственным интеллектом, размещенное на @truestorynow, аккаунте с почти 50 000 подписчиков, где публикуются видео реальных жертв преступлений, рассказывающих свои истории. Ужасная история, которую она рассказывает, правдива, хотя и в некоторой степени. Ребенка звали не Роди Мари, а Роял Мари, и в 2018 году ее нашли зарезанной и сожженной в духовке в доме ее бабушки в Миссисипи; бабушке, 48-летней Кэролайн Джонс, в начале этого года было предъявлено обвинение в убийстве первой степени. Но Роялти было 20 месяцев, когда она умерла, а не 21, и в отличие от ребенка в видео TikTok, она была черной, а не белой.

Подобные неточности являются обычным явлением в гротескном мире ИИ-истинной жертвы преступления TikTok, поджанра массового фэндома о настоящих преступлениях, который использует искусственный интеллект, чтобы по сути воскрешать жертв убийств, многие из которых — маленькие дети. В видеороликах, некоторые из которых имеют миллионы просмотров, жертвы рассказывают от первого лица ужасные подробности своей смерти; у большинства из них нет предварительного предупреждения о содержании.

«Они довольно странные и жуткие», — говорит Пол Бликли, доцент кафедры уголовного правосудия Университета Нью-Хейвена. «Кажется, они созданы для того, чтобы вызывать сильные эмоциональные реакции, потому что это самый верный способ получить клики и лайки. Смотреть неудобно, но я думаю, что в этом и есть смысл».

На многих аккаунтах есть заявление об отказе от ответственности, в котором говорится, что в видео не используются настоящие фотографии жертв, как способ «уважать семью», как утверждает Nostalgia Narratives, аккаунт, который публикует видео с искусственным интеллектом жертв реальных преступлений и имеет 175 000 подписчиков. субтитры к видео. В отчете рассказывается не только истории известных жертв детских убийств, таких как Элиза Искьердо, шестилетняя девочка, убитая своей жестокой матерью в 1995 году, и Стар Хобсон, годовалая девочка, убитая подругой своей матери в 2020 году. , но также и взрослые жертвы убийств, такие как Джордж Флойд и Джон Кеннеди. Ни один из аккаунтов, к которым обратился Rolling Stone, не ответил на просьбы о комментариях, но тот факт, что они меняют внешний вид жертв, вероятно, связан с правилами сообщества TikTok, запрещающими дипфейковые изображения частных лиц или молодых людей, — политикой, которую платформа ввела в марте. . (Представитель TikTok подтвердил журналу Rolling Stone, что @truestorynow был удален за нарушение принципов сообщества.)

Распространение на TikTok видеороликов о реальных жертвах преступлений с использованием искусственного интеллекта — это последний этический вопрос, который возникает в связи с огромной популярностью жанра реальных преступлений в целом. Хотя документальные фильмы, такие как «Проклятие» и «Создание убийцы», а также подкасты, такие как «Криминальный наркоман» и «Мое любимое убийство», собрали огромное количество поклонников, многие критики этого жанра ставят под сомнение этические последствия того, что зрители воспринимают реальные истории ужасающих нападений и убийств как чистое развлечение. , с появлением кабинетных сыщиков и одержимых настоящими преступлениями, которые потенциально могут повторно травмировать близких жертв.

Эта обеспокоенность вдвойне касается видеороликов, подобных видео с участием членов королевской семьи, которые рассказывают историю жертвы с ее точки зрения и используют ее имя, предположительно без согласия семьи, что приводит к невероятно жуткому эффекту. «Нечто подобное имеет реальный потенциал для повторной виктимизации людей, которые уже были жертвами ранее», - говорит Бликли. «Представьте, что вы являетесь родителем или родственником одного из этих детей в этих видеороликах с искусственным интеллектом. Вы заходите в Интернет, и этим странным, высоким голосом вы видите изображение искусственного интеллекта, [основанное] на вашем умершем ребенке, с очень кровавыми подробностями о том, что с ними случилось».