Мрачный отчет выявляет первые видеозаписи с детской порнографией, созданные ИИ

Person on laptop

Согласно докладу Фонда Интернет-Наблюдения (IWF), с помощью генеративных моделей ИИ создаются дипфейки реальных жертв сексуального насилия над детьми.

Исследование, проведенное IWF, показывает, что с развитием технологий ИИ идет рост распространения синтетических видео с детским сексуальным насилием.

Реклама

IWF, который выступает как «передовая линия борьбы с онлайн-насилием над детьми», сообщает, что выявил модели ИИ, специально разработанные для более чем 100 жертв сексуального насилия над детьми.

В качестве примера приведена одна из жертв, чьи изображения были загружены преступником, когда ей было от трех до восьми лет.

Некоммерческая организация сообщает, что Оливия (не настоящее имя), была спасена полицией в 2023 году, но годы спустя пользователи темной сети используют инструменты ИИ для создания новых изображений с ее участием в ситуациях насилия.

Преступники собирают изображения жертв, таких как Оливия, которой сейчас за 20, и используют их для настройки моделей ИИ с целью создания нового контента. Некоторые из этих моделей можно скачать в интернете, согласно докладу.

Злоупотребление технологиями видео на основе ИИ

Технологии видео на основе ИИ значительно продвинулись в этом году, и, к сожалению, это отражается в докладе.

Исследование, проведенное с марта по апрель этого года, выявило девять дипфейковых видео на одном форуме в темной сети, посвященном материалам с сексуальным насилием над детьми. При предыдущем анализе этого форума в октябре, таких видео не было обнаружено.

Некоторые дипфейковые видео представляют собой порнографию с взрослыми, где лица заменены на детские. В других случаях это существующие видео с детским насилием, где заменено лицо одного ребенка на лицо другого.

Так как оригинальные видео включают настоящих детей, анализы IWF утверждают, что дипфейки особенно убедительны.

Бесплатное программное обеспечение с открытым исходным кодом, по-видимому, стоит за многими дипфейковыми видео, которые видел IWF. Методы, используемые преступниками в темной сети, похожи на те, что используются для создания дипфейковой порнографии для взрослых.

IWF опасается, что с улучшением технологий видео на основе ИИ, материалы с использованием ИИ станут еще более фотореалистичными. Это подтверждается ростом числа сообщений о незаконных ИИ-изображениях.


Авторские права на изображение: Заглавное фото лицензировано через Depositphotos.

Источник: PetaPixel

Добавить комментарий

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Будьте в курсе самых важных событий

Нажимая кнопку "Подписаться", вы подтверждаете, что ознакомились с нашими условиями и соглашаетесь с ними. Политика конфиденциальности и Условия использования
Реклама