В мае 2023 года три ключевых главы компаний, занимающихся разработкой искусственного интеллекта, посетили легендарную черную дверь здания № 10 на Даунинг-стрит, где проживает премьер-министр Великобритании. Сэм Альтман из OpenAI, Демис Хассабис из Google DeepMind и Дарио Амодеи из Anthropic прибыли обсудить будущее ИИ после выхода на рынок популярного инструмента ChatGPT, произошедшего полгода назад.
После фотосессии с премьер-министром Риши Сунаком в его рабочем кабинете участники встречи направились в зал заседаний. С одной стороны длинного стола разместились Сунак и представители британского правительства, а напротив – три руководителя и их советники. Обсуждение касалось преимуществ ИИ для экономики Великобритании, но премьер неожиданно решил затронуть и риски. Сунак хотел больше узнать о причинах, по которым руководители подписали заявление о том, что ИИ представляет такую же угрозу, как пандемия или ядерная война. Он пригласил их принять участие в первом в мире саммите по безопасности ИИ, который Великобритания планировала провести в ноябре. В итоге они согласились предоставить правительству Великобритании предварительный доступ к новейшим моделям своих компаний, чтобы группа экспертов могла тестировать их на безопасность.
Великобритания первой в мире заключила такое соглашение с так называемыми «фронтировыми» лабораториями ИИ. Через шесть месяцев Сунак формализовал работу группы, преобразовав её в Институт безопасности ИИ (AISI), который стал самой передовой программой по оценке рисков ИИ внутри любого правительства. Он получил государственное финансирование в размере £100 миллионов, что примерно в 10 раз больше бюджета аналогичного Института в США, созданного в то же время.
В AISI команды исследователей и экспертов по национальной безопасности начали проверку ИИ на возможность проведения биологических, химических или кибератак, а также возможность утраты контроля их создателями. До этого проверка на безопасность могла проводиться только внутри самих ИИ-компаний, заинтересованных в быстром продвижении продукта. Правительство Великобритании считало, что демократические нации должны обладать техническими возможностями для аудита и понимания передовых систем ИИ, чтобы иметь надежду повлиять на ключевые решения относительно этой технологии в будущем.
За короткий срок AISI завоевал уважение ИИ-индустрии благодаря способности проводить высококачественные тесты безопасности внутри государственных структур. Они привлекли именитых исследователей из OpenAI и Google DeepMind. Исследователи смогли протестировать 16 моделей, включая несколько новых, до их публичного выпуска. Среди них были модели компании Google, OpenAI и Anthropic. В мае институт запустил инструмент с открытым исходным кодом для тестирования возможностей ИИ, который стал популярным среди компаний и правительств, пытающихся оценить риски ИИ.
Однако все еще остается неясным, может ли AISI эффективно повышать безопасность систем ИИ на основе своих тестов. Они редко публикуют результаты своих оценок или дают понять, применяли ли компании-ИИ их выводы. В 2023 году британская экономика ИИ оценивалась в £5.8 миллиардов, а правительство имело ограниченное влияние на самые мощные мировые компании в области ИИ. Главный вопрос остается прежним: сможет ли молодой Институт безопасности ИИ действительно привлечь к ответственности крупные технологические компании с миллиардными оборотами?
В Соединённых Штатах богатство и мощь сектора технологий препятствовали введению действенного регулирования. Однако в августе 2023 года американский институт подписал соглашения о доступе к моделям ИИ от компаний OpenAI и Anthropic. В октябре администрация Байдена выпустила документ по национальной безопасности, поручивший институту проверять новые модели ИИ на безопасность и сотрудничать с Агентством национальной безопасности в конфиденциальных оценках.
Британский и американский институты сотрудничают, однако американский институт может занять лидирующую позицию благодаря юридической возможности обеспечивать доступ к моделям ИИ по всему миру. На фоне победы Дональда Трампа на выборах, многие республиканцы считают регулирование препятствием экономическому росту. Тем не менее, Элону Маску, поддержавшему переизбрание Трампа, также интересна тема безопасности ИИ. В условиях политической нестабильности Вашингтона преимуществом британского института остается стабильность – место, где исследователи могут работать над безопасностью ИИ без конфликтов интересов и политической неопределенности.
Три недели после встречи на Даунинг-стрит, на конференции в Лондоне, премьер-министр Риши Сунак сделал заявление о договоренности с руководителями крупнейших лабораторий, подчеркнув, что Британия становится лидером в обеспечении безопасности ИИ.
Тем не менее, вопрос доступа к «весам» моделей, представляющим собой структуры нейронной сети, остался открытым. Британское правительство стремилось к полному доступу, который компании считали невозможным. Спустя время стало понятно, что необходимое правительству тестирование можно провести через интерфейс чата, после чего они отказались от просьбы о доступе к моделям и признали этот шаг ошибкой.
Создание AISI стало важным шагом в обеспечении прозрачности и понимания работы ИИ для демократических стран. Основной задачей института остается выявление и оценка рисков от сложных моделей. И, несмотря на то, что институт сталкивается с вызовами, его роль в глобальной безопасности ИИ продолжает возрастать.
Источник: Time