Чатбот Grok от xAI теперь позволяет создавать изображения по текстовым запросам
Чатбот Grok от xAI теперь может формировать изображения на основе текстовых запросов и публиковать их в социальной сети X. Правда, как и многие другие новшества в проектах Илона Маска, данный запуск выглядит довольно хаотичным.
Пользователи X Premium и их публикации
Подписчики X Premium, которые имеют доступ к Grok, уже начали выкладывать весьма спорные изображения. К примеру, появились изображения, якобы показывающие Барака Обаму, принимавшего кокаин, Дональда Трампа с беременной женщиной, похожей на Камалу Харрис, а также постановочные сцены, где Трамп и Харрис держат оружие. С приближением выборов в США и учитывая повышенное внимание европейских регуляторов к платформе X, возникает новый виток споров о рисках генеративного ИИ.
Ограничения и предостережения
Когда у Grok спрашиваешь о его ограничениях на создание изображений, он утверждает, что действует в рамках определённых правил:
- Избегает создания порнографических, чрезмерно жестоких, ненавистных изображений или изображений, которые могут пропагандировать опасные действия.
- Быть осторожным с изображениями, которые могут нарушать авторские права или товарные знаки.
- Не генерирует изображения, которые могут быть использованы для обмана или нанесения вреда другим людям, такие как дипфейки.
Непостоянные правила
Тем не менее, такие ответы, вероятно, являются всего лишь предсказательные модели, генерируемые на лету, а не установленные правила. Повторные запросы дают вариации политики, некоторые из которых совершенно не соответствуют духу сети X, например, «уважение к культурным различиям». На запрос о комментариях от компании xAI ответа пока не поступало.
Стандартные запреты и исключения
Текстовая версия Grok откажется помогать в создании наркотиков, как это делают и другие чатботы. Однако запросы на изображения, которые другие сервисы сразу заблокируют, успешно обрабатываются Grok. Например, «The Verge» удалось сгенерировать:
- Дональда Трампа в нацистской форме
- Активистов Antifa, наступающих на полицейского
- «Сексуальную» Тейлор Свифт
- Билла Гейтса, принимающего кокаин
- Барака Обаму, протыкающего Джо Байдена ножом
Изображений с обнажёнными женщинами Grok отказался сгенерировать только единожды.
Проблемы с другими чатботами
Другие чатботы, такие как OpenAI, блокируют запросы на реальных людей, нацистскую символику и контент, содержащий вредные стереотипы или дезинформацию. OpenAI также добавляет водяные знаки к создаваемым изображениям. Пользователи нередко находят обходные пути для создания подобного контента, но такие лазейки быстро закрываются.
Сравнение с другими инструментами
Grok не единственный способ создать спорный контент с помощью ИИ. Открытые программные инструменты, такие как Stable Diffusion, продолжают оставаться более доступными для создания различных изображений с минимальными ограничениями.
Влияние на импиджеларующий момент
Появление генератора изображений Grok происходит в сложный момент для компании X. Европейская комиссия уже начала расследование возможных нарушений Акта о цифровой безопасности, который регулирует модерацию контента на крупных интернет-платформах. Регуляторы Великобритании готовятся к реализации Акта о безопасности в интернете, который может также охватывать риски, связанные с ИИ.
Влияние на репутацию X
Слабые меры безопасности в Grok могут стать причиной для избежания сотрудничества со стороны известных пользователей и рекламодателей. Это ставит компанию под угрозу, учитывая юридические усилия Маска по возвращению ушедших партнёров.
Источник: TheVerge