Согласно докладу Фонда Интернет-Наблюдения (IWF), с помощью генеративных моделей ИИ создаются дипфейки реальных жертв сексуального насилия над детьми.
Исследование, проведенное IWF, показывает, что с развитием технологий ИИ идет рост распространения синтетических видео с детским сексуальным насилием.
IWF, который выступает как «передовая линия борьбы с онлайн-насилием над детьми», сообщает, что выявил модели ИИ, специально разработанные для более чем 100 жертв сексуального насилия над детьми.
В качестве примера приведена одна из жертв, чьи изображения были загружены преступником, когда ей было от трех до восьми лет.
Некоммерческая организация сообщает, что Оливия (не настоящее имя), была спасена полицией в 2023 году, но годы спустя пользователи темной сети используют инструменты ИИ для создания новых изображений с ее участием в ситуациях насилия.
Преступники собирают изображения жертв, таких как Оливия, которой сейчас за 20, и используют их для настройки моделей ИИ с целью создания нового контента. Некоторые из этих моделей можно скачать в интернете, согласно докладу.
Злоупотребление технологиями видео на основе ИИ
Технологии видео на основе ИИ значительно продвинулись в этом году, и, к сожалению, это отражается в докладе.
Исследование, проведенное с марта по апрель этого года, выявило девять дипфейковых видео на одном форуме в темной сети, посвященном материалам с сексуальным насилием над детьми. При предыдущем анализе этого форума в октябре, таких видео не было обнаружено.
Некоторые дипфейковые видео представляют собой порнографию с взрослыми, где лица заменены на детские. В других случаях это существующие видео с детским насилием, где заменено лицо одного ребенка на лицо другого.
Так как оригинальные видео включают настоящих детей, анализы IWF утверждают, что дипфейки особенно убедительны.
Бесплатное программное обеспечение с открытым исходным кодом, по-видимому, стоит за многими дипфейковыми видео, которые видел IWF. Методы, используемые преступниками в темной сети, похожи на те, что используются для создания дипфейковой порнографии для взрослых.
IWF опасается, что с улучшением технологий видео на основе ИИ, материалы с использованием ИИ станут еще более фотореалистичными. Это подтверждается ростом числа сообщений о незаконных ИИ-изображениях.
Авторские права на изображение: Заглавное фото лицензировано через Depositphotos.
Источник: PetaPixel