Введение
Технический прогресс может вдохновлять нас; политика иногда выводит из себя, а войны способны мобилизовать. Но когда дело касается риска исчезновения человечества из-за развития искусственного интеллекта (ИИ), мы остаемся удивительно пассивными. Частично это может быть связано с тем, что на поверхности не было очевидного решения. Эту идею хотелось бы оспорить.
Развитие ИИ
Способности ИИ постоянно совершенствуются. С момента выпуска ChatGPT два года назад в этот сектор были вложены сотни миллиардов долларов. Эти объединенные усилия, вероятно, приведут к созданию искусственного общего интеллекта (AGI), где машины будут иметь человеческое восприятие, и это может случиться в ближайшие годы.
Риски и вызовы
Множество ученых в области ИИ полагают, что мы можем потерять контроль над ИИ, если он станет слишком способным, что может привести к человеческой гибели. Что же в таких условиях делать?
Проблемы выравнивания ИИ
Экзистенциальный риск ИИ часто представляется крайне сложной проблемой. В одной из работ 2018 года разработка безопасного ИИ человеческого уровня описывалась как «сверхсложная проблема». Эта сложность часто связывается с предложением выравнивания ИИ, которое предполагает, что сверхчеловеческий ИИ будет действовать в соответствии с ценностями человечества. Однако начало этому решению было проблематичным.
Основные трудности:
- Научный прогресс в выравнивании ИИ значительно медленнее, чем в развитии самого ИИ.
- Философский вопрос о том, каким ценностям должен соответствовать сверхинтеллект, остается невероятно сложным.
- Даже если выравнивание удастся успешно, это может не решить проблему экзистенциального риска ИИ, так как дружелюбный ИИ не гарантирует остановку недружелюбных.
Призывы к осторожности
Из-за этих проблем многие призывают технологические компании не разрабатывать ИИ, потеря контроля над которым возможна. Некоторые группы активистов даже предложили международное соглашение, которое бы остановило развитие ИИ на глобальном уровне. Многие считают это политически неприемлемым, так как это может занять некоторое время, прежде чем будут найдены недостающие компоненты для разработки AGI.
Решения и предложения
Технологии могут развиваться рывками. Если произойдет еще один прорыв, подобный изобретению трансформера в 2017 году, который помог развитию современных крупных языковых моделей, возможно, мы достигнем AGI в течение нескольких месяцев обучения. Именно поэтому важно наличие регулирующей структуры.
Некоторые ведущие ученые предложили ввести обязательства, которые будут реализованы, если и когда будут обнаружены критические возможности в передовых системах ИИ. Исходя из их работы, предлагается Условный Договор о Безопасности ИИ, который предусматривает меры на случай критического приближения к потере контроля.
Заключение
Введение Условного Договора о Безопасности ИИ может стать решением для уменьшения экзистенциального риска, связанного с ИИ, не мешая при этом его текущему развитию. Преодоление геополитических вызовов, несомненно, потребует значительных усилий, но данное предложение может послужить началом пути к безопасному будущему. Решение одной из самых сложных проблем, с которой мы сталкиваемся, — экзистенциального риска ИИ — действительно существует. Только от нас зависит, осуществим ли мы его или продолжим двигаться по пути к возможному исчезновению человечества.
Источник: Time