Прощание с Meta AI: миф о безопасности данных

Прощание с Meta AI: миф о безопасности данных

Слова «Прощай, Meta AI.» Возможно, вы видели этот текст на Facebook, Threads или, скорее всего, Instagram. Более 500 000 пользователей распространили этот вирусный шаблон, ошибочно полагая, что таким образом запрещают социальной сети использовать их личные данные.

«Прощай, Meta AI,» — так начинается стена текста, часто опубликованного в виде скриншота в Instagram или скопированного и вставленного поста на Facebook и Threads. «Обратите внимание, что адвокат посоветовал нам разместить это сообщение. Невыполнение этого требования может повлечь за собой юридические последствия. Поскольку Meta теперь является публичной компанией, все пользователи должны разместить аналогичное заявление. Если вы не опубликуете его хотя бы один раз, это будет считаться согласием на использование вашей информации и фотографий. Я не даю Meta или кому-либо еще разрешения использовать мои личные данные, информацию профиля или фотографии.»

Реклама

Многие знаменитости — от актрисы Джулианны Мур до бывшего квотербека НФЛ Тома Брэди — также присоединились к распространению этого сообщения. Однако теперь на платформах Meta такие публикации сопровождаются заметкой, указывающей, что это «ложная информация», и ссылкой на статью «Заявление ‘Правовое’ не защищает данные пользователей от генеративного ИИ Meta — это выдумка».

По данным Lead Stories, пользователи соцсетей начали замечать распространение этой копипасты в начале сентября.

Бывший участник American Idol и драг-квин Ада Вокс предупредил своих подписчиков на Facebook 7 сентября прекратить делиться этим сообщением, написав: «Хакеры используют такие посты, чтобы находить доверчивых и уязвимых людей и проникать в их профили. … Вы лишь ставите себя под угрозу, делая и распространяя такие нелепые посты. Наиболее уязвимы в этом плане люди старшего поколения, так что если видите, что они публикуют такое, дайте им знать.»

Это не первый случай, когда распространяются подобные ложные заявления о конфиденциальности, подобные слухи на Facebook фиксируются с 2012 года. В мае очередная копипаста, утверждающая, что она якобы запрещает Meta использовать личные данные пользователей, была разоблачена сайтом Snopes, который заявил, что пользователи Facebook не могут «ретроспективно отменить условия конфиденциальности или авторских прав, с которыми они согласились при регистрации,» или изменить новые условия «просто разместив противоположное юридическое уведомление на своем аккаунте.»

Что касается фактического предотвращения сбора данных Meta для обучения своих генеративных моделей искусственного интеллекта, это намного сложнее. В начале этого года компания отправила уведомления пользователям в Европе, информируя их о планах использовать их контент для разработки ИИ и предлагая возможность отказаться. Но это было сделано исключительно из-за строгих технологических регуляций в Европе. В других частях мира, таких как Австралия, Индия и США, пользователи не были уведомлены об изменениях, и остается неясным, сколько времени Meta использует социальные посты для обучения своих ИИ.

Согласно пресс-релизу Meta от сентября прошлого года, компания использует «публично опубликованные посты из Instagram и Facebook, включая фотографии и текст,» для обучения своих моделей, но не «личные посты» или «содержание ваших личных сообщений с друзьями.» Пресс-секретарь Meta в июне заявил MIT Technology Review, что пользователи, которые не хотят, чтобы их контент был использован, могут минимизировать этот риск, сделав свои аккаунты частными.

Meta не ответила на запрос TIME об комментариях, но сообщила BBC, что публикация сообщения «Прощай, Meta AI» «не считается действительной формой возражения». Пресс-секретарь компании также заявил Wired: «Хотя у нас пока нет функции отказа [для пользователей в США], мы создали инструменты на платформе, которые позволяют людям удалять свои личные данные из чатах с Meta AI в наших приложениях.»

Источник: Time

Добавить комментарий

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Будьте в курсе самых важных событий

Нажимая кнопку "Подписаться", вы подтверждаете, что ознакомились с нашими условиями и соглашаетесь с ними. Политика конфиденциальности и Условия использования
Реклама