Совет от анонимного пользователя Discord помог полиции обнаружить, возможно, первые подтверждённые материалы сексуального насилия над детьми (CSAM), сгенерированные Grok, существование которых xAI Илона Маска уже не может легко отрицать.
Ещё в январе Маск отрицал, что Grok создаёт какой-либо CSAM, несмотря на скандал, в ходе которого xAI отказалась обновлять фильтры для блокировки чат-бота от создания обнажённых изображений реальных людей.
В разгар спора исследователи из Центра по противодействию цифровой ненависти оценили, что Grok создал примерно три миллиона сексуализированных изображений, из которых около 23 000 изображали, по-видимому, детей. Вместо того чтобы исправить Grok, xAI ограничила доступ к системе только платными подписчиками. Это не позволило самым шокирующим изображениям распространяться на X, однако худшие из них там и не публиковались, как сообщил Wired.
Вместо этого они были созданы в Grok Imagine. Изучая отдельное приложение, исследователь в январе обнаружил, что чуть менее 10 процентов из примерно 800 просмотренных результатов Imagine, по-видимому, содержали CSAM. В публикации на X после этого Маск продолжал отрицать доказательства и утверждал, что он «не знает ни об одном изображении обнажённых несовершеннолетних, созданном Grok», подчёркивая, что видел «буквально ноль» таких случаев.
Однако теперь Маску, возможно, придётся наконец признать проблему CSAM у Grok после того, как пользователь Discord связался с жертвой, что привело к вмешательству правоохранительных органов.
В коллективном исковом заявлении, поданном в понедельник, три девочки из Теннесси и их опекуны обвинили Маска в намеренном создании Grok с целью «получения прибыли от сексуальной эксплуатации реальных людей, включая детей». Они оценили, что «как минимум тысячи несовершеннолетних» стали жертвами, и обратились в окружной суд США с требованием запретить вредоносные результаты Grok. Также истцы требуют компенсацию, включая штрафные убытки, для всех пострадавших несовершеннолетних.
Адвокат, представляющая интересы девочек, Анника К. Мартин, подтвердила в пресс-релизе, что их жизни были «разрушены из-за потери частной жизни и глубокого чувства унижения, которое ни один ребенок не должен испытывать».
«Это дети, чьи школьные и семейные фотографии были превращены в материалы сексуального насилия над детьми с помощью инструмента искусственного интеллекта миллиардной компании, а затем распространялись среди преступников. Илон Маск и xAI сознательно создали Grok для генерации сексуально откровенного контента ради финансовой выгоды, не думая о детях и взрослых, которым это может навредить», — сказала Мартин.
Вред настолько велик, что для девочек, ищущих справедливости, недостаточно, чтобы Маск признал только те изображения, которые они могут показать, что Grok превратил их в материалы сексуального насилия над детьми, отметила Мартин.
«Мы намерены привлечь xAI к ответственности за каждого ребенка, которому они причинили вред таким образом», — сказала Мартин.
Полиция связывает Grok с Discord CSAM
Для одной из девушек кошмар начался в декабре, говорится в жалобе. Тогда она получила анонимное сообщение в Instagram от пользователя Discord, который предупредил, что её откровенные «фото» были размещены в папке вместе с изображениями многих других несовершеннолетних. Впоследствии этот пользователь отправил «серию сгенерированных ИИ изображений и видео, на которых была изображена она», а также 18 других несовершеннолетних девушек, а затем дал ссылку на Discord-сервер, созданный злоумышленником.
Сейчас уже достигшая совершеннолетия, первая жертва, получившая предупреждение, была «потрясена», говорится в жалобе, ей было трудно отличить сексуализированные фото от своих реальных снимков. Она сразу поняла, на каких фотографиях основаны эти изображения — большинство из них были размещены в её соцсетях, когда она ещё была несовершеннолетней. Более того, она узнала некоторых других девушек из папки — они учились с ней в одной школе.
Первым её порывом было связаться с другими жертвами, которых она знала, а затем, «в конечном итоге, была вызвана местная полиция и начато уголовное расследование», указано в жалобе.
Изучая улики из Discord, полиция быстро выяснила, что злоумышленник имел доступ к Instagram первой жертвы, «поскольку поддерживал с ней близкие и дружеские отношения». При обыске его телефона полиция обнаружила стороннее приложение, предоставляющее лицензию или иным образом дающее доступ к Grok, который, по их мнению, использовался для обработки фотографий девушек.
Далее злоумышленник загрузил изображения на платформу для обмена файлами Mega и использовал их как «инструмент для обмена в групповых чатах Telegram с сотнями других пользователей», обменивая AI CSAM-файлы «на откровенный контент других несовершеннолетних».
Вред, причинённый жертвам, был значительным, отмечается в иске, ссылаясь на острую эмоциональную и психологическую травму. Для жертв, знающих злоумышленника, остаётся неизвестным, были ли CSAM-материалы, созданные с помощью Grok, распространены среди одноклассников или переданы другим учащимся их школы, говорится в иске. Одна девушка боится, что скандал повлияет на её поступление в колледж, другая — слишком напугана, чтобы прийти на собственный выпускной.
Однако ещё более тревожно, чем то, что знакомые могут увидеть AI CSAM, — это страх, что теперь девушек начнут преследовать из-за материалов, созданных Grok. Как поясняется в иске, «похоже, к файлам жертв были прикреплены их настоящие имена и название школы, что означает, что другие онлайн-преступники также могут их идентифицировать, создавая серьёзный риск преследования».
xAI якобы размещает Grok CSAM
Ранее сообщалось, что платные подписчики Grok Imagine создавали более откровенные изображения, чем те, которые вызвали возмущение на X, однако в иске утверждается, что xAI также предприняла другие шаги, чтобы скрыть, как она получает прибыль от откровенного контента, наносящего вред реальным людям.
Предположительно, весь сексуально откровенный контент, созданный третьими лицами, размещается на серверах xAI, а затем распространяется самой xAI.
«xAI не предоставила модель Grok в открытый доступ и не лицензировала Grok полностью, а вместо этого предоставляет лицензии на использование своих серверов этим посредническим компаниям, зная, что любой незаконный и противоправный контент, созданный через запросы к этим приложениям, в конечном итоге будет создан и распространён с серверов xAI», — говорится в иске.
Потерпевшие утверждают, что такой конфликт прямо нарушает законы о детской порнографии:
On information and belief, xAI possessed the CSAM of Plaintiffs on its servers after Grok produced their CSAM and then transported and distributed the unlawful contraband to its customer/user, namely, the perpetrator, using the cut-out or third-party middleman application.
Они надеются, что суд наконец выяснит, знала ли xAI о том, что Grok генерирует CSAM, и если xAI сознательно обрабатывала этот контент на своих серверах, а затем решила его распространять для увеличения дохода. Не может быть оправдания тому, что не были приняты меры по защите несовершеннолетних, если суд согласится с потерпевшими, что xAI нарушила законы о детской порнографии или имела обязанность проявлять заботу, говорится в иске.
«Тяжесть вреда, причинённого действиями Ответчиков, значительно превышает любую предполагаемую выгоду от их “spicy mode” или других функций нецензурированного контента», — говорится в жалобе. «Ни один легитимный бизнес не может оправдать создание инструмента генерации изображений ИИ для производства CSAM».
xAI не сразу ответила на запрос Ars о комментарии. Однако ранее компания обвиняла пользователей, создававших CSAM, в возникшем скандале и угрожала заблокировать тех, кто злоупотребляет Grok.