Meta, Snapchat и TikTok запускают инициативу Thrive для психического здоровья — давно пора

Meta, Snapchat и TikTok запускают инициативу Thrive для психического здоровья - давно пора

Meta, Snapchat и TikTok наконец объединяются для решения проблемы вредного контента на своих платформах – и это давно назревший шаг.

В сотрудничестве с Mental Health Coalition, эти три бренда запускают программу под названием Thrive, которая направлена на выявление и безопасный обмен информацией о вредном контенте, особенно касающемся суицида и самоповреждений.

Реклама

В блоге Meta говорится: «Как и многие другие типы потенциально проблемного контента, контент, связанный с суицидом и самоповреждениями, не ограничен одной платформой… Именно поэтому мы совместно с Mental Health Coalition создали Thrive, первую программу обмена сигналами о нарушениях, связанных с суицидом и самоповреждениями.»

Через Thrive, компании, участвующие в проекте, смогут обмениваться сигналами о нарушающем контенте, связанном с суицидом или самоповреждениями, чтобы другие компании могли расследовать и принимать меры, если аналогичный контент будет обнаружен на их платформах. Meta предоставляет техническую инфраструктуру, которая лежит в основе Thrive, что позволяет безопасно обмениваться сигналами.

Когда компания-участник, такая как Meta, обнаруживает вредный контент на своем приложении, она делится хешами (анонимизированными кодами, относящимися к контенту, связанному с самоповреждениями или суицидом) с другими технологическими компаниями, чтобы те могли проверить свои базы данных на наличие аналогичного контента, так как подобный контент, как правило, распространяется по нескольким платформам.

Анализ: Хорошее начало

(Изображение: Getty Images)

Пока существуют платформы, на которых пользователи могут загружать собственный контент, будут нарушения правил и распространение вредных сообщений в сети. Это может проявляться в виде мошенников, пытающихся продать фальшивые курсы, неуместного контента на каналах, ориентированных на детей, и контента, связанного с суицидом или самоповреждениями. Аккаунты, размещающие такой контент, обычно очень хорошо обходят правила и остаются незамеченными, достигая своей целевой аудитории; контент часто удаляется слишком поздно.

Радует, что социальные медиа платформы – которые используют сложные алгоритмы и архитектуру, подталкивающую пользователей к привыканию и автоматическому потреблению контента, с которым они взаимодействуют – наконец-то начинают брать на себя ответственность и работать вместе. Такой этический подход со стороны крупнейших соцсетей крайне необходим. Тем не менее, это должно быть лишь первым шагом на пути к успеху.

Проблема пользовательского контента в том, что его нужно постоянно контролировать. Искусственный интеллект может помочь автоматически выявлять вредный контент, но часть из него все равно будет проскакивать – многие из этих материалов содержат под текст, который нужно будет распознать и обозначить в ущербной целой человеком в какой-то момент. Я буду следить за политиками Meta, TikTok и других компаний в отношении вредного контента.

Источник: TechRadar

Добавить комментарий

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Будьте в курсе самых важных событий

Нажимая кнопку "Подписаться", вы подтверждаете, что ознакомились с нашими условиями и соглашаетесь с ними. Политика конфиденциальности и Условия использования
Реклама