Основные моменты:
- Цукерберг, как сообщается, настаивал на внедрении ИИ, несмотря на возражения сотрудников.
- Сотрудники якобы обсуждали способы сокрытия методов получения данных для обучения ИИ.
- Согласно материалам суда, Meta пыталась скрыть свои действия по обучению ИИ, но безуспешно.
Meta сталкивается с коллективным иском за нарушение авторских прав и недобросовестную конкуренцию в связи с обучением своей модели ИИ под названием Llama.
Согласно судебным документам, опубликованным vx-underground, Meta, как утверждается, скачала около 82 ТБ пиратских книг из теневых библиотек, таких как Anna’s Archive, Z-Library и LibGen, чтобы обучить свои системы ИИ.
Внутренние обсуждения показывают, что некоторые сотрудники высказывали этические опасения еще в 2022 году. Один из исследователей прямо заявил: «Я не думаю, что мы должны использовать пиратский материал», в то время как другой отметил: «Использование пиратского материала должно быть за пределами нашей этической границы».
Несмотря на эти опасения, Meta, видимо, продолжила свои действия и пыталась избежать обнаружения. В апреле 2023 года один из сотрудников предостерег от использования корпоративных IP-адресов для доступа к пиратскому контенту, а другой сказал, что «торрент из корпоративного ноутбука — это не правильно», добавив смеющийся эмодзи.
Существуют также сообщения о том, что сотрудники Meta обсуждали способы предотвращения прямой связи инфраструктуры компании с загрузками, вызывая вопросы о том, сознательно ли компания обходила законы об авторских правах.
В январе 2023 года генеральный директор Meta Марк Цукерберг, как утверждается, присутствовал на совещании, где он настаивал на внедрении ИИ в компании несмотря на внутренние возражения.
Meta не единственная компания, столкнувшаяся с правовыми проблемами по обучению ИИ. OpenAI многократно судили за использование книг, защищенных авторским правом, без разрешения.
Подобные вызовы испытывает и Nvidia, которая находится под юридическим рассмотрением из-за использования почти 200 тысяч книг для обучения своей модели NeMo. Один из бывших сотрудников раскрыл, что компания ежедневно собирала более 426 000 часов видео для развития ИИ.
Проблемы с этикой и легальностью практик обучения ИИ продолжают актуализироваться, особенно на фоне недавнего заявления OpenAI против DeepSeek о незаконном приобретении данных из их моделей.
Источник: TechRadar