OpenAI — лидер в гонке за создание искусственного интеллекта, сравнимого по уровню интеллекта с человеком. Однако сотрудники продолжают появляться в прессе и в подкастах, чтобы выразить свои серьезные опасения относительно безопасности в некоммерческой исследовательской лаборатории на сумму 80 миллиардов долларов. Последнее заявление появилось в The Washington Post, где анонимный источник утверждал, что OpenAI ускорила прохождение тестов на безопасность и отметила свой продукт до того, как обеспечила его безопасность.
«Они запланировали вечеринку после запуска до того, как узнали, безопасно ли запускать», — сказал анонимный сотрудник The Washington Post. «Мы в основном провалили процесс».
Вопросы безопасности нависают над OpenAI — и, кажется, продолжают появляться. Недавно нынешние и бывшие сотрудники OpenAI подписали открытое письмо, требуя улучшения практик безопасности и прозрачности от стартапа вскоре после того, как его команда по безопасности была распущена вслед за уходом сооснователя Ильи Суцкевера. Ян Лейк, ключевой исследователь OpenAI, ушел в отставку вскоре после этого, заявив в посте, что «культура безопасности и процессы ушли на второй план перед блестящими продуктами» в компании.
Безопасность является ключевой составляющей устава OpenAI, с пунктом, который утверждает, что OpenAI будет помогать другим организациям повысить уровень безопасности в случае достижения AGI у конкурентов, вместо продолжения конкуренции. Он утверждает, что посвящен решению проблем безопасности, связанных с такой большой и сложной системой. OpenAI даже хранит свои собственные модели в тайне, а не открыто (что вызывает насмешки и судебные разбирательства), ради безопасности. Предупреждения звучат так, будто безопасность была уменьшена важности, несмотря на то, что она является столь кардинальной для культуры и структуры компании.
Источник: The Verge