Если неконтролируемый искусственный общий интеллект — или «божественный» ИИ — действительно надвигается, то мы сейчас находимся примерно на полпути к этой реальности. С каждым днем приближается момент потенциальной катастрофы.
Именно поэтому я представил «Часы безопасности ИИ» в прошлом месяце. Моя цель проста: я хочу подчеркнуть, что опасности неконтролируемого ИОИ реальны и актуальны. В настоящее время часы показывают 29 минут до полуночи, что отражает нашу близость к критической точке, когда неконтролируемый ИОИ может привести к экзистенциальным рискам. Хотя пока катастрофических последствий не наступило, стремительное развитие ИИ и сложность его регулирования требуют постоянной внимательности и вовлеченности всех заинтересованных сторон.
Это не паникерство; это основано на достоверных данных. «Часы безопасности ИИ» отслеживают три важных фактора: растущую сложность технологий ИИ, их возрастающую автономию и интеграцию с физическими системами.
Мы видим значительный прогресс во всех этих трех направлениях. Самые большие достижения происходят в области машинного обучения и нейронных сетей. ИИ уже превосходит людей в таких областях, как распознавание изображений и речи, умение выигрывать в сложные игры и даже успешно сдавать экзамены в бизнес-школах и технические интервью в компании, такие как Amazon.
Несмотря на эти достижения, большинство современных систем ИИ все еще зависят от человеческого управления. Они разработаны для выполнения четко определенных задач, ориентированных на данные и инструкции, которые мы предоставляем.
Тем не менее, некоторые системы ИИ уже демонстрируют признаки ограниченной независимости. Автономные автомобили принимают решения в реальном времени относительно навигации и безопасности, в то время как алгоритмы рекомендаций на платформах, таких как YouTube и Amazon, предлагают контент и товары без вмешательства человека. Однако мы еще не достигли полной автономии — существуют серьезные вопросы, такие как обеспечение безопасности, этического надзора и работа с непредсказуемостью ИИ в неструктурированных средах.
На данный момент ИИ в значительной степени остается под человеческим контролем. Он еще не полностью интегрировался в критически важные системы, которые поддерживают функционирование нашего мира — такие, как энергетические сети, финансовые рынки или военное вооружение — в автономном режиме. Но не стоит обольщаться, мы движемся в этом направлении. Технологии на основе ИИ уже делают успехи, особенно в военной сфере с такими системами, как автономные дроны, и в гражданских сферах, где ИИ помогает оптимизировать расходы энергии и содействует финансовым операциям.
Как только ИИ получит доступ к более критическим инфраструктурам, риски многократно возрастут. Представьте себе, что ИИ решит отключить электроснабжение города, манипулировать финансовыми рынками или применить военные технологии — всё это без контроля человека или с его ограниченным вмешательством. Это будущее, которое мы не можем позволить себе допустить.
Но нам следует опасаться не только сценариев конца света. Темная сторона возможностей ИИ уже проявляется. Кампании дезинформации на основе ИИ уже искажают общественный дискурс и дестабилизируют демократии.
Быстро развиваясь, ИИ оставляет регулирование позади. Особенно это касается США, где попытки внедрить законы о безопасности ИИ на данный момент фрагментированы. Регулирование часто оставляется на усмотрение отдельных штатов, что приводит к созданию неравномерной сети законов с разной степенью эффективности. Недавнее решение губернатора Калифорнии отклонить законопроект о безопасности ИИ, опасаясь, что это затормозит инновации и станет причиной ухода технологий в другие регионы, лишь подчеркивает, насколько мы отстаем.
Нам необходима скоординированная глобальная стратегия регулирования ИИ — международный орган, подобный Международному агентству по атомной энергии в отношении ядерных технологий. ИИ, подобно ядерной энергии, не знает границ. Если даже одна страна разработает ИОИ без должных мер безопасности, последствия могут затронуть весь мир. Мы не можем позволить пробелам в регулировании подвергать опасности всю планету. Здесь международное сотрудничество становится ключевым. Без глобальных соглашений, которые устанавливают четкие границы и обеспечивают безопасное развитие ИИ, мы рискуем попасть в гонку вооружений, ведущую к катастрофе.
В то же время мы не можем игнорировать ответственность таких компаний, как Google, Microsoft и OpenAI, которые находятся на переднем крае разработки ИИ. Возрастают опасения, что гонка за доминирование в области ИИ, обусловленная конкуренцией и коммерческим давлением, может затмить долгосрочные риски.
Часть решения заключается в создании средств защиты в системах ИИ — таких, как «выключатели», которые позволят людям вмешиваться в работу ИИ, если он начнет действовать непредсказуемо. Такие механизмы необходимо внедрять с самого начала, а не добавлять их в последующем.
Неоспоримо, что риски реальны. Мы находимся на грани сосуществования с машинами, которые смогут сопоставить или даже превзойти человеческий интеллект — будь то через год или через десять. Но мы не бессильны. У нас есть возможность направить развитие ИИ в правильное русло и обеспечить будущее, где ИИ станет силой добра.
Однако время идет.
Источник: Time