Когда Великобритания провела мир первый AI Safety Summit в ноябре прошлого года, тогдашний премьер-министр Риши Сунак заявил, что достижения на мероприятии «перевернут в пользу человечества». На двухдневном мероприятии, которое проходило в колыбели современных вычислений, Блетчли-Парке, лаборатории искусственного интеллекта пообещали делиться своими моделями с правительствами до их общественного выпуска, a 29 стран обязались сотрудничать в минимизации рисков от искусственного интеллекта. Это было частью усилий правительства правой партии, возглавляемого Сунаком, по позиционированию Великобритании в качестве лидера в регулировании искусственного интеллекта, что также включало создание первого в мире Института по безопасности искусственного интеллекта — государственного органа, ответственного за оценку моделей на наличие потенциально опасных возможностей. В то время как США и другие союзные страны впоследствии создали свои собственные аналогичные институты, институт Великобритании может похвастаться финансированием в 10 раз больше своего американского аналога.
Через восемь месяцев, 5 июля, после разгромного поражения Лейбористской партии, Сунак покинул свою должность, и новоизбранный премьер-министр Кейр Стармер начал формировать свое новое правительство. Его подход к искусственному интеллекту был описан как потенциально более строгий, чем подход Сунака.
Стармер назначил Питера Кайла министром науки и технологий, предоставив законодателю контроль над политикой Великобритании в области искусственного интеллекта в решающий момент, когда правительства по всему миру борются с тем, как способствовать инновациям и регулировать быстроразвивающуюся технологию. После объявления результатов выборов, Кайл сказал в BBC, что «раскрытие выгод от искусственного интеллекта является личным», ссылаясь на передовые медицинские сканирования, которые сейчас разрабатываются, и которые могли бы помочь обнаружить легочный рак его поздней матери до того, как он стал фатальным.
На фоне потенциальных выгод от искусственного интеллекта, правительство Лейбористкой партии должно сбалансировать опасения общественности. В августе опрос более 4 000 членов британской общественности, проведенный Центром по этике и инновациям в области данных, выявил, что 45% респондентов считали одним из самых больших рисков, которые представляет технология, то, что искусственный интеллект лишит людей рабочих мест; 34% считали, что потеря человеческого творчества и решения проблем также представляет один из наибольших рисков.
Вот что мы пока что знаем о подходе Лейбористов к искусственному интеллекту.
Регулирование искусственного интеллекта
Одной из ключевых задач для правительства Лейбористов, вероятно, будет являться способ регулировать компании по искусственному интеллекту и генерации контента, созданного искусственным интеллектом. Под предыдущим консервативным правительством Министерство науки, инноваций и технологий (МНИТ) отложило внедрение правил, сказав, что «введение обязательных мер слишком рано, даже если они очень целенаправлены, может потерпеть неудачу в эффективном устранении рисков, быстро устареть или задавить инновации и помешать людям по всему Соединенному Королевству получить преимущества от искусственного интеллекта», в 2024 году в документе о политике в области регулирования искусственного интеллекта. Лейбористы дали понять о другом подходе, обещая в своей манифесте внедрить «обязательное регулирование на нескольких компаниях, разрабатывающих самые мощные модели искусственного интеллекта», указывая на большую готовность вмешиваться в развитие быстро развивающейся технологии.
Лейбористы также пообещали запретить сексуально откровенные глубокие фэйки. В отличие от предлагаемого законодательства в Соединенных Штатах, которое позволит жертвам подавать в суд на тех, кто создает неконсенсуальные глубокие фэйки, Лейбористы рассматривают предложение Лейбористов Вместе, идейного приближенного к нынешней Лейбористской партии, о наложении ограничений на разработчиков путем запрета так называемых инструментов нудификации.
В то время как разработчики искусственного интеллекта заключили соглашения о добровольном обмене информацией с Институтом по безопасности искусственного интеллекта, Кайл сказал в интервью для BBC в феврале, что Лейбористы сделают это соглашение о предоставлении информации «законодательным кодексом».
«Мы бы обязали законом тех, кто проводит тестирование, предоставить правительству эти данные о результатах», — сказал Кайл в интервью.
Определение времени для регулирования — это тщательный баланс, говорит Сандра Ватер, профессор технологий и регулирования в Оксфордском интернет-институте.
«Искусство заключается в том, чтобы быть в нужное время с законом. Это означает не слишком рано, не слишком поздно», — говорит она. «Последнее, что вам нужно, это спешно составленная политика, которая задушит инновации и не обеспечит защиту прав человека».
Вотчер говорит, что достижение правильного баланса в регулировании потребует от правительства быть в «постоянном разговоре» со заинтересованными сторонами, такими как лица в технологической отрасли, чтобы гарантировать, что правительство имеет внутренний взгляд на то, что происходит на передовых позициях развития искусственного интеллекта при формулировании политики.
Кирсти Иннес, директор по технологической политике в Лейбористском сообществе, указывает на Закон о безопасности онлайн в Англии, который был принят в октябре прошлого года, как негативный пример того, что регулирование не успевает за темпами технологии. Закон, направленный на защиту детей от вредного контента в онлайне, занял 6 лет с момента предложения до окончательной подписи.
«За эти 6 лет опыт людей в онлайне радикально изменился. Не имеет смысла, чтобы это был ваш основной способ реагировать на изменения в обществе, вызванные технологиями», говорит она. «Теперь вы должны быть намного быстрее по этому поводу».
Может быть уроки для Великобритании из Закона об искусственном интеллекте ЕС, всестороннего регуляторного каркаса, принятого в марте, который вступит в силу 1 августа и станет полностью применимым к разработчикам искусственного интеллекта в 2026 году. Иннес говорит, что повторение ЕС не является конечной целью Лейбористов. Европейский закон устанавливает иерархическую классификацию рисков для случаев использования искусственного интеллекта, запрещая системы, признанные неприемлемыми, такие как системы социального скоринга, а также накладывая обязательства на поставщиков приложений высокого риска, такие как использованные в критической инфраструктуре. Системы, признанные ограниченными или минимальными в риске, сталкиваются с меньшими требованиями. Кроме того, закон устанавливает правила для «искусственного интеллекта общего назначения», систем с широким спектром применения, такие как те, которые лежат в основе чат-ботов, таких как ChatGPT от OpenAI. Системы общего назначения, обученные на большом количестве вычислительной мощности, такие как GPT-4, представ Источник: Time