Почему Сэм Альтман покидает Комитет по Безопасности OpenAI

Почему Сэм Альтман покидает Комитет по Безопасности OpenAI

Генеральный директор OpenAI Сэм Альтман покинет внутренний комитет, созданный компанией для совета по вопросам «критически важной безопасности и защиты» в условиях гонки за разработкой все более мощных технологий искусственного интеллекта.

Комитет, сформированный в мае, оценивал процессы и меры безопасности OpenAI на протяжении 90 дней. OpenAI опубликовала рекомендации комитета 16 сентября. Первыми в списке рекомендаций значатся установление независимого управления для вопросов безопасности и защиты.

Реклама

В соответствии с рекомендациями комитета, Альтман, который также является членом совета директоров OpenAI и руководит бизнес-операциями компании в своей роли генерального директора, больше не будет служить в комитете по вопросам безопасности. Новым независимым председателем комитета назначен Зико Колтер, директор департамента машинного обучения в Университете Карнеги-Меллона, который присоединился к совету директоров OpenAI в августе. Другими членами комитета станут Адам Д’Анджело, соучредитель и генеральный директор Quora, генерал армии США в отставке Пол Наксон и бывший президент Sony Entertainment Николь Селигман. Вместе с Альтманом из комитета также выйдут председатель совета директоров OpenAI Брет Тейлор и несколько технических и политических экспертов компании.

В числе других рекомендаций комитета — усиление мер безопасности, прозрачность в работе OpenAI и унификация рамок безопасности компании. Комитет также планирует исследовать возможности для сотрудничества с внешними организациями, которые могли бы оценить недавно выпущенные модели мышления от OpenAI на предмет опасных возможностей.

Комитет по безопасности и защите не является первой попыткой OpenAI создать независимый надзор. Прибыльная часть компании, созданная в 2019 году, контролируется некоммерческой организацией с «преимущественно независимым» советом директоров, задача которого — следить за тем, чтобы компания действовала в соответствии со своей миссией по разработке безопасного и широко полезного искусственного общего интеллекта (AGI) — системы, превосходящей человека в большинстве аспектов.

В ноябре совет директоров OpenAI уволил Альтмана, заявив, что он не был «постоянно откровенен в своих коммуникациях с советом, что мешало его способности выполнять свои обязанности». После восстания сотрудников и инвесторов — и после отставки члена совета директоров и президента компании Грега Брокмана — Альтман был быстро восстановлен на посту генерального директора, а члены совета директоров Хелен Тонер, Таша МакКоли и Илья Суцкевер подали в отставку. Брокман впоследствии вернулся на пост президента компании.

Инцидент подчеркнул ключевую проблему для быстро растущей компании. Критики, включая Тонер и МакКоли, утверждают, что формально независимый совет директоров недостаточен для противодействия сильным стимулам к получению прибыли, которые имеет компания. В начале месяца Reuters сообщило, что продолжающиеся усилия по привлечению финансирования OpenAI, которые могут повысить ее оценочную стоимость до $150 миллиардов, могли бы зависеть от изменения корпоративной структуры компании.

Тонер и МакКоли утверждают, что независимость совета директоров не является достаточной, и что правительства должны активно участвовать в регулировании ИИ. «Даже при лучших намерениях, без внешнего надзора такая саморегуляция окажется неосуществимой», написали бывшие члены совета директоров в статье, опубликованной в Economist в мае, рассматривая ноябрьский скандал в совете директоров OpenAI.

Ранее Альтман призывал к регулированию систем ИИ, но OpenAI также выступала против калифорнийского законопроекта об ИИ, который обязывал бы разработчиков соблюдать протоколы безопасности. В противовес позиции компании, более 30 нынешних и бывших сотрудников OpenAI публично поддерживали этот законопроект.

Создание комитета по безопасности и защите в конце мая последовало за особенно бурным месяцем для OpenAI. Илья Суцкевер и Ян Лейке, два лидера команды компании «супераллаймент», сфокусированной на обеспечении контроля над системами ИИ, если они превзойдут человеческий интеллект, подали в отставку. Лейке обвинил OpenAI в приоритизации «ярких продуктов» над безопасностью в посте на X. Команда была распущена после их ухода. В том же месяце OpenAI подверглась критике за требования к уходящим сотрудникам подписывать соглашения, запрещающие критику компании под угрозой лишения их права на долю в компании. (Позднее OpenAI заявила, что эти положения не применялись и не будут применяться, и что они будут удалены из всех документов на выход).

Источник: Time

Добавить комментарий

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Будьте в курсе самых важных событий

Нажимая кнопку "Подписаться", вы подтверждаете, что ознакомились с нашими условиями и соглашаетесь с ними. Политика конфиденциальности и Условия использования
Реклама