Почти 200 сотрудников Google DeepMind, подразделения по искусственному интеллекту компании, подписали письмо с призывом к техногиганту прекратить контракты с военными организациями. Согласно документу, с которым ознакомилось издание TIME, и пяти осведомленным людям, письмо распространялось на фоне растущих опасений того, что разработанные в DeepMind технологии продаются армиям, участвующим в военных конфликтах, что, по словам сотрудников, нарушает собственные правила Google в области ИИ.
Письмо сигнализирует о нарастающем конфликте внутри Google между работниками подразделения ИИ, которое заявило, что никогда не будет работать над военными технологиями, и облачным бизнесом компании. Google Cloud имеет контракты на продажу своих услуг, включая ИИ разработки DeepMind, правительствам и военным организациям, таким как Израиль и США. Подписавшие письмо составляют около 5% от общего числа сотрудников DeepMind — небольшая часть, но это значительный уровень тревожности для индустрии, где высококлассные специалисты по машинному обучению пользуются высоким спросом.
Письмо от 16 мая этого года начинается с выражения озабоченности в связи с недавними сообщениями о контрактах Google с военными организациями. Оно не упоминает конкретные военные силы, заявляя, что «это письмо не о геополитике какого-либо конкретного конфликта.» Однако, оно ссылается на апрельский отчет TIME, в котором сообщалось о прямом контракте Google на предоставление облачных вычислений и ИИ услуг армии Израиля в рамках более широкого контракта с Израилем под названием Project Nimbus. Также упоминаются другие истории, утверждающие, что израильская армия использует ИИ для проведения массового наблюдения и выбора целей для бомбардировок в Газе, а израильские оружейные компании обязаны правительством покупать облачные услуги у Google и Amazon.
Письмо утверждает, что всякая вовлеченность в военные и оружейные производства подрывает их позицию лидеров в области этичного и ответственного ИИ, и противоречит миссии Google и заявленным Принципам ИИ. Эти принципы декларируют, что компания не будет создавать ИИ, который может нанести общий вред, способствовать созданию оружия или других технологий, чья основная цель или применение — причинение вреда, или разрабатывать технологии, противоречащие широко признанным принципам международного права и прав человека. Подписавшиеся выражают беспокойство в связи с обеспечением соблюдения Принципов ИИ Google и верят, что руководство DeepMind разделяет их опасения.
Представитель Google заявил TIME: «При разработке ИИ-технологий и предоставлении их клиентам мы соблюдаем наши Принципы ИИ, которые обозначают наше стремление создавать технологии ответственно. Проект Nimbus предназначен для обработки рабочих нагрузок на нашем коммерческом облаке министерствами правительства Израиля, которые соглашаются соблюдать наши Условия использования и Политику допустимого использования. Это не направлено на обработку высокочувствительных, секретных или военных рабочих нагрузок, относящихся к оружию или разведывательным службам.»
Письмо призывает руководство DeepMind расследовать обвинения о том, что военные и производители оружия являются пользователями Google Cloud; прекратить доступ к технологиям DeepMind для военных пользователей; и создать новый орган управления, отвечающий за предотвращение использования технологий DeepMind военными клиентами в будущем. Три месяца спустя после распространения письма, по словам четырех осведомленных людей, Google не предпринял никаких действий. «Мы не получили никакого значимого ответа от руководства», — сказал один из источников, — «и мы все больше разочарованы.»
Когда DeepMind была приобретена Google в 2014 году, лидеры лаборатории добились важного обещания от поисковой гиганта: их ИИ технологии никогда не будут использоваться для военных или наблюдательных целей. В течение многих лет лондонская лаборатория функционировала с высокой степенью независимости от штаб-квартиры Google в Калифорнии. Однако, с увеличением конкуренции в области ИИ, DeepMind была интегрирована в Google. Попытка лидеров лаборатории обеспечить большую автономию в 2021 году провалилась, и в 2023 году организация объединилась с другим ИИ-подразделением Google — Google Brain, приблизившись к ядру техногиганта. Независимый этический комитет, который лидеры DeepMind надеялись создать для управления использованием технологий лаборатории, в итоге собрался всего один раз, и вскоре был заменен общей этической политикой Google — Принципами ИИ. Хотя эти принципы обещают, что Google не будет разрабатывать ИИ, который может нанести общий вред, они явно допускают разработку технологий, которые могут причинить вред, если компания придет к выводу, что положительные последствия значительно перевешивают риски. И они не исключают продажу ИИ технологий Google военным клиентам.
В результате технологии DeepMind были интегрированы в облачные программные продукты Google и проданы военным и правительственным организациям, включая Министерство обороны Израиля. «Хотя DeepMind может быть недовольна работой над военными или оборонными контрактами в прошлом, я думаю, что это уже не наше решение», — сказал в апреле один из сотрудников DeepMind журналистам TIME, предпочтя остаться анонимным. Несколько сотрудников Google в апреле утверждали, что по причинам конфиденциальности компании сложно, если не невозможно, проверить, нарушается ли политика допустимого использования, которая запрещает использование продуктов для действий, вызывающих смерть, серьезный вред или травмы.
Google утверждает, что Project Nimbus, его контракт с Израилем, не направлен на обработку высокочувствительных, секретных или военных рабочих нагрузок, относящихся к оружию или разведывательным службам. Но такой ответ «не отвергает утверждения, что его технологии позволяют какой-либо форме насилия или обеспечить наблюдение, нарушающее международно признанные нормы,» согласно письму, распространившемуся в DeepMind в мае. «Заявление Google по Project Nimbus настолько неясное, что мы до сих пор не понимаем, что оно на самом деле означает,» — сказал один из подписавших письмо журналистам TIME.
На общем собрании сотрудников DeepMind в июне, руководителям компании был задан вопрос о содержимом письма. Операционный директор DeepMind Лила Ибрагим ответила, что DeepMind не будет разрабатывать или внедрять какие-либо ИИ-приложения для оружия или массового наблюдения, и что клиенты Google Cloud юридически обязаны соблюдать Условия использования и Политику допустимого использования компании. Она также добавила, что гордится послужным списком Google в области безопасного и ответственного ИИ, и это было причиной, почему она выбрала работу в компании и осталась в ней.
Источник: Time