Введение
В этом году на развитие систем искусственного интеллекта (ИИ) будут потрачены сотни миллиардов долларов, чтобы достигнуть суперчеловеческих способностей. Руководители ведущих компаний в области ИИ, такие как Сэм Альтман из OpenAI и Илон Маск из xAI, считают, что в ближайшие четыре года их системы смогут выполнять большую часть когнитивной работы — любую задачу, которая может быть выполнена с помощью ноутбука — так же эффективно или лучше, чем люди.
Трансформационный потенциал
Если такие достижения произойдут, это фундаментально изменит общество, как полагают лидеры. Генеральный директор Google, Сундар Пичаи, не раз отмечал, что ИИ — это «самая глубокая технология, над которой работает человечество». Demis Hassabis, возглавляющий лабораторию исследований ИИ Google DeepMind, утверждает, что социальное влияние ИИ будет сопоставимо с огнем или электричеством.
Прогнозы развития
В феврале, после международного саммита по ИИ в Париже, генеральный директор Anthropic Дарио Амодеи выразил уверенность, что к 2030 году системы ИИ можно будет рассматривать как новый вид, населенный высокоинтеллектуальными существами. В тот же месяц Маск на подкасте заявил, что в ближайшие годы мы приблизимся к созданию существа, умнее любого человека, и что к 2029 или 2030 году оно будет умнее всех людей вместе взятых.
Потенциальное влияние
Если эти прогнозы даже частично верны, мир может вскоре радикально измениться. Однако нет единого мнения о том, как с этим справляться. С выпуском всё более продвинутых моделей ИИ и отсутствием интереса администрации Трампа к регулированию технологий, решения лидеров частного сектора становятся особенно важными. Но их мнения о рисках и возможных последствиях различаются.
Экзистенциальный риск или возможность
Несмотря на разногласия, некоторые лидеры считают, что ИИ представляет собой экзистенциальный риск. Маск в феврале заявил, что считает, что вероятность уничтожения человечества ИИ составляет 20%. В то время как другие руководители видят в ИИ начало золотого века инноваций. По словам Пичаи, «наибольший риск — это упустить эту возможность».
Конкуренция между странами и компаниями
Существует распространенное мнение, что замедление развития ИИ в США позволит другим странам, особенно Китаю, обогнать их в создании трансформационного ИИ. Будущие системы ИИ могут создать новое оружие массового уничтожения или взломать ядерный арсенал страны, что может изменить глобальный баланс сил в одно мгновение.
Параметры контроля
Большинство компаний, разрабатывающих продвинутые модели ИИ, имеют собственные процедуры обеспечения безопасности. Однако ни одна из них не подкреплена законом. Некоторым CEO вес их ответственности кажется чрезмерным. Они призывают к созданию новых международных институтов для мониторинга развития ИИ.
Заключение
Международные соглашения всегда было сложно создать, и это «более нереалистично, чем когда-либо». Нехватка правовой базы может стать основным сдерживающим фактором для развертывания систем ИИ. Некоторые руководители компаний уже ощущают, что контроль над созданными ими технологиями уходит из их рук, и это вызывает опасения.
Источник: Time