Генеральный директор OpenAI Сэм Альтман покинет внутренний комитет, созданный компанией для совета по вопросам «критически важной безопасности и защиты» в условиях гонки за разработкой все более мощных технологий искусственного интеллекта.
Комитет, сформированный в мае, оценивал процессы и меры безопасности OpenAI на протяжении 90 дней. OpenAI опубликовала рекомендации комитета 16 сентября. Первыми в списке рекомендаций значатся установление независимого управления для вопросов безопасности и защиты.
В соответствии с рекомендациями комитета, Альтман, который также является членом совета директоров OpenAI и руководит бизнес-операциями компании в своей роли генерального директора, больше не будет служить в комитете по вопросам безопасности. Новым независимым председателем комитета назначен Зико Колтер, директор департамента машинного обучения в Университете Карнеги-Меллона, который присоединился к совету директоров OpenAI в августе. Другими членами комитета станут Адам Д’Анджело, соучредитель и генеральный директор Quora, генерал армии США в отставке Пол Наксон и бывший президент Sony Entertainment Николь Селигман. Вместе с Альтманом из комитета также выйдут председатель совета директоров OpenAI Брет Тейлор и несколько технических и политических экспертов компании.
В числе других рекомендаций комитета — усиление мер безопасности, прозрачность в работе OpenAI и унификация рамок безопасности компании. Комитет также планирует исследовать возможности для сотрудничества с внешними организациями, которые могли бы оценить недавно выпущенные модели мышления от OpenAI на предмет опасных возможностей.
Комитет по безопасности и защите не является первой попыткой OpenAI создать независимый надзор. Прибыльная часть компании, созданная в 2019 году, контролируется некоммерческой организацией с «преимущественно независимым» советом директоров, задача которого — следить за тем, чтобы компания действовала в соответствии со своей миссией по разработке безопасного и широко полезного искусственного общего интеллекта (AGI) — системы, превосходящей человека в большинстве аспектов.
В ноябре совет директоров OpenAI уволил Альтмана, заявив, что он не был «постоянно откровенен в своих коммуникациях с советом, что мешало его способности выполнять свои обязанности». После восстания сотрудников и инвесторов — и после отставки члена совета директоров и президента компании Грега Брокмана — Альтман был быстро восстановлен на посту генерального директора, а члены совета директоров Хелен Тонер, Таша МакКоли и Илья Суцкевер подали в отставку. Брокман впоследствии вернулся на пост президента компании.
Инцидент подчеркнул ключевую проблему для быстро растущей компании. Критики, включая Тонер и МакКоли, утверждают, что формально независимый совет директоров недостаточен для противодействия сильным стимулам к получению прибыли, которые имеет компания. В начале месяца Reuters сообщило, что продолжающиеся усилия по привлечению финансирования OpenAI, которые могут повысить ее оценочную стоимость до $150 миллиардов, могли бы зависеть от изменения корпоративной структуры компании.
Тонер и МакКоли утверждают, что независимость совета директоров не является достаточной, и что правительства должны активно участвовать в регулировании ИИ. «Даже при лучших намерениях, без внешнего надзора такая саморегуляция окажется неосуществимой», написали бывшие члены совета директоров в статье, опубликованной в Economist в мае, рассматривая ноябрьский скандал в совете директоров OpenAI.
Ранее Альтман призывал к регулированию систем ИИ, но OpenAI также выступала против калифорнийского законопроекта об ИИ, который обязывал бы разработчиков соблюдать протоколы безопасности. В противовес позиции компании, более 30 нынешних и бывших сотрудников OpenAI публично поддерживали этот законопроект.
Создание комитета по безопасности и защите в конце мая последовало за особенно бурным месяцем для OpenAI. Илья Суцкевер и Ян Лейке, два лидера команды компании «супераллаймент», сфокусированной на обеспечении контроля над системами ИИ, если они превзойдут человеческий интеллект, подали в отставку. Лейке обвинил OpenAI в приоритизации «ярких продуктов» над безопасностью в посте на X. Команда была распущена после их ухода. В том же месяце OpenAI подверглась критике за требования к уходящим сотрудникам подписывать соглашения, запрещающие критику компании под угрозой лишения их права на долю в компании. (Позднее OpenAI заявила, что эти положения не применялись и не будут применяться, и что они будут удалены из всех документов на выход).
Источник: Time