Генеральный директор OpenAI Сэм Альтман сообщил в посте на X, что компания начала сотрудничество с Институтом безопасности ИИ США, предоставив правительственному агентству ранний доступ к своей следующей крупной модели ИИ для проведения тестов на безопасность.
Альтман описал этот план как часть более широкой инициативы по повышению мер безопасности ИИ, что может существенно повлиять на ChatGPT и другие продукты OpenAI в ближайшие годы. Это также может быть частью пиар-кампании и политической стратегии против критиков, утверждающих, что OpenAI больше не уделяет должного внимания безопасности ИИ.
Одной из причин критики является создание и последующий роспуск внутренней команды по безопасности ИИ в OpenAI. Это привело к уходу ведущих руководителей компании, таких как Ян Лейке и Илья Суцкевер, которые были ключевыми фигурами в ранних исследованиях по безопасности ИИ. Многие текущие и бывшие сотрудники публично выражали сомнения в том, что OpenAI пренебрегает вопросами безопасности в пользу разработки продуктов.
Еще одна причина заключается в том, что Альтман в своем посте упомянул о выделении 20% вычислительных ресурсов на исследования по безопасности в прошлом году, однако эти ресурсы тогда были предназначены для той же команды, чьи лидеры ушли из компании. Все же договор с правительством не является единственным изменением. Альтман сообщил, что OpenAI отменила ограничения, препятствующие разоблачениям со стороны сотрудников.
Если сотрудничество с Институтом безопасности ИИ США является стратегическим шагом OpenAI для восстановления доверия, то это значительный шаг. Институт работает под эгидой Национального института стандартов и технологий (NIST) в составе Министерства торговли и разрабатывает стандарты и руководства по безопасности и защите ИИ. Он уже сотрудничает с такими крупными компаниями, как Microsoft, Google, Meta, Apple и Nvidia.
Предоставление Институту раннего доступа к следующей модели ИИ позволит проводить тесты и оценки безопасности до ее публичного выпуска. Это нацелено на выявление и уменьшение потенциальных рисков на ранних этапах разработки, что соответствует более широким целям, определенным в исполнительном указе президента Джо Байдена по вопросам ИИ в прошлом году.
В последние дни OpenAI также предприняла шаги по поддержке новых регулятивных инициатив. Компания поддержала новый Закон о будущем инноваций, который наделил бы Институт безопасности ИИ ответственностью за создание федеральных нормативов по безопасности ИИ. Очевидная связь между продвижением законопроекта и участием моделей OpenAI в работе Института может расцениваться как попытка оказывать влияние на регулирование или более невинная попытка повысить общую безопасность ИИ.
Сотрудничество OpenAI с Институтом безопасности ИИ США будет оцениваться по тому, насколько безопасными окажутся окончательные модели и будут ли введены реальные ограничения для повышения их безопасности. Вопросы безопасности ИИ становятся все более актуальными в повседневной жизни, и возможно напряжение между безопасностью и прибылью будет только возрастать, даже если OpenAI и ее конкуренты надеются завоевать доверие общественности.
Одобрение со стороны правительственного агентства, безусловно, поможет укрепить доверие, и OpenAI не хотела бы, чтобы это одобрение получили другие компании раньше нее. Участие независимого органа по безопасности в оценке моделей ИИ перед их выпуском может предоставить большую уверенность в том, что используемые инструменты безопасны и надежны. Открытые проблемы с ИИ, такие как конфиденциальность данных, предвзятость и намеренное злоупотребление технологиями, могут быть уменьшены благодаря проактивному подходу. Однако лоббирование и другие усилия OpenAI, направленные на создание благоприятных для себя правил, могут подорвать эту инициативу и весь смысл деятельности Института безопасности ИИ, если не быть осторожными.
Источник: TechRadar