В письме, переданном в The Verge, сенатор Элизабет Уоррен и представитель Лори Трэхэн выразили обеспокоенность несоответствием между публичными заявлениями компании OpenAI и ее действиями. Они запросили информацию о мерах защиты для информаторов и предотвращения конфликта интересов в OpenAI, поскольку это может потребовать федерального вмешательства.
Законодатели указали на несколько случаев, когда возникали сомнения в соблюдении мер безопасности OpenAI. Так, в 2022 году, незавершенная версия GPT-4 была протестирована в новой версии Microsoft Bing в Индии без одобрения совета по безопасности OpenAI. Они также напомнили о коротком увольнении генерального директора компании Сэма Альтмана в 2023 году из-за опасений совета по поводу коммерциализации разработок без полного понимания последствий.
Письмо Уоррен и Трэхэн к Альтману появилось на фоне множества вопросов, связанных с безопасностью OpenAI, которые зачастую противоречат публичным заявлениям компании. Анонимные источники сообщили The Washington Post, что тесты безопасности проводились в ускоренном режиме, команда Superalignment (частично отвечавшая за безопасность) была расформирована, а один из руководителей по безопасности уволился, заявив, что безопасность отошла на второй план по сравнению с продуктами компании. Представитель OpenAI Линдси Хелд опровергла эти утверждения, но признала, что запуск был стрессовым для команд.
Другие законодатели также требуют разъяснений по практикам безопасности компании, в том числе группа сенаторов под руководством Брайана Шаца (D-HI) в июле. Уоррен и Трэхэн запросили уточнения по ответам OpenAI, включая создание новой «Линии честности» для сотрудников, чтобы они могли сообщать о проблемах.
OpenAI ведет активные действия по улучшению своей репутации. В июле компания объявила о партнерстве с Лос-Аламосской национальной лабораторией для исследования безопасного использования продвинутых моделей ИИ в бионаучных исследованиях. На прошлой неделе в посте на X Альтман сообщил о сотрудничестве с Институтом безопасности искусственного интеллекта США и отметил, что 20 процентов вычислительных ресурсов компании будет выделено на безопасность, что было ранее обещано теперь уже расформированной командой Superalignment. В том же посте Альтман отметил, что OpenAI убрала пункты в договорах сотрудников о запрете на критику и положения о возможности аннулирования накопленных акций, что было одной из ключевых тем в письме Уоррен и Трэхэн.
Уоррен и Трэхэн попросили Альтмана предоставить информацию о том, как используется новая горячая линия безопасности для сотрудников и какие действия предпринимаются по полученным отчетам. Они также запросили «подробный отчет» о случаях, когда продукты OpenAI обходили протоколы безопасности, и при каких условиях продукту разрешено пропустить проверку безопасности. Законодатели также интересуются политикой OpenAI по предотвращению конфликта интересов. Они спросили, требовалось ли от Альтмана избавиться от внешних активов и какие конкретные меры защиты внедрены для предотвращения финансовых конфликтов интересов. Они ожидают ответа от Альтмана до 22 августа.
Уоррен также отметила, насколько активно Альтман высказывался о своих опасениях по поводу ИИ. В прошлом году, выступая перед Сенатом, Альтман предупредил, что возможности ИИ могут «значительно дестабилизировать общественную безопасность и национальную безопасность» и подчеркнул невозможность предсказать все потенциальные злоупотребления или сбои технологии. Эти предупреждения нашли отклик у законодателей — в родном штате OpenAI, Калифорнии, сенатор штата Скотт Винер продвигает законопроект о регулировании крупных языковых моделей, включая меры, предполагающие юридическую ответственность компаний за вредное использование их ИИ.
Источник: TheVerge