Как повлияет на безопасность ИИ предварительное предоставление моделей OpenAI правительству?

Как повлияет на безопасность ИИ предварительное предоставление моделей OpenAI правительству? Как повлияет на безопасность ИИ предварительное предоставление моделей OpenAI правительству?

Генеральный директор OpenAI Сэм Альтман сообщил в посте на X, что компания начала сотрудничество с Институтом безопасности ИИ США, предоставив правительственному агентству ранний доступ к своей следующей крупной модели ИИ для проведения тестов на безопасность.

Альтман описал этот план как часть более широкой инициативы по повышению мер безопасности ИИ, что может существенно повлиять на ChatGPT и другие продукты OpenAI в ближайшие годы. Это также может быть частью пиар-кампании и политической стратегии против критиков, утверждающих, что OpenAI больше не уделяет должного внимания безопасности ИИ.

Реклама

Одной из причин критики является создание и последующий роспуск внутренней команды по безопасности ИИ в OpenAI. Это привело к уходу ведущих руководителей компании, таких как Ян Лейке и Илья Суцкевер, которые были ключевыми фигурами в ранних исследованиях по безопасности ИИ. Многие текущие и бывшие сотрудники публично выражали сомнения в том, что OpenAI пренебрегает вопросами безопасности в пользу разработки продуктов.

Еще одна причина заключается в том, что Альтман в своем посте упомянул о выделении 20% вычислительных ресурсов на исследования по безопасности в прошлом году, однако эти ресурсы тогда были предназначены для той же команды, чьи лидеры ушли из компании. Все же договор с правительством не является единственным изменением. Альтман сообщил, что OpenAI отменила ограничения, препятствующие разоблачениям со стороны сотрудников.

Если сотрудничество с Институтом безопасности ИИ США является стратегическим шагом OpenAI для восстановления доверия, то это значительный шаг. Институт работает под эгидой Национального института стандартов и технологий (NIST) в составе Министерства торговли и разрабатывает стандарты и руководства по безопасности и защите ИИ. Он уже сотрудничает с такими крупными компаниями, как Microsoft, Google, Meta, Apple и Nvidia.

Предоставление Институту раннего доступа к следующей модели ИИ позволит проводить тесты и оценки безопасности до ее публичного выпуска. Это нацелено на выявление и уменьшение потенциальных рисков на ранних этапах разработки, что соответствует более широким целям, определенным в исполнительном указе президента Джо Байдена по вопросам ИИ в прошлом году.

В последние дни OpenAI также предприняла шаги по поддержке новых регулятивных инициатив. Компания поддержала новый Закон о будущем инноваций, который наделил бы Институт безопасности ИИ ответственностью за создание федеральных нормативов по безопасности ИИ. Очевидная связь между продвижением законопроекта и участием моделей OpenAI в работе Института может расцениваться как попытка оказывать влияние на регулирование или более невинная попытка повысить общую безопасность ИИ.

Сотрудничество OpenAI с Институтом безопасности ИИ США будет оцениваться по тому, насколько безопасными окажутся окончательные модели и будут ли введены реальные ограничения для повышения их безопасности. Вопросы безопасности ИИ становятся все более актуальными в повседневной жизни, и возможно напряжение между безопасностью и прибылью будет только возрастать, даже если OpenAI и ее конкуренты надеются завоевать доверие общественности.

Одобрение со стороны правительственного агентства, безусловно, поможет укрепить доверие, и OpenAI не хотела бы, чтобы это одобрение получили другие компании раньше нее. Участие независимого органа по безопасности в оценке моделей ИИ перед их выпуском может предоставить большую уверенность в том, что используемые инструменты безопасны и надежны. Открытые проблемы с ИИ, такие как конфиденциальность данных, предвзятость и намеренное злоупотребление технологиями, могут быть уменьшены благодаря проактивному подходу. Однако лоббирование и другие усилия OpenAI, направленные на создание благоприятных для себя правил, могут подорвать эту инициативу и весь смысл деятельности Института безопасности ИИ, если не быть осторожными.

Источник: TechRadar

Добавить комментарий

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Будьте в курсе самых важных событий

Нажимая кнопку "Подписаться", вы подтверждаете, что ознакомились с нашими условиями и соглашаетесь с ними. Политика конфиденциальности и Условия использования
Реклама