США стремятся к снижению регулирования ИИ на саммите в Париже

США стремятся к снижению регулирования ИИ на саммите в Париже США стремятся к снижению регулирования ИИ на саммите в Париже

Исключение опасений по безопасности, оптимизм на подъеме

На этой неделе в Париже прошел крупный саммит по искусственному интеллекту, который продемонстрировал, что обеспокоенность безопасностью уходит на второй план, а на первый выходит оптимизм. На мероприятии лидеры стран, в том числе из США и Франции, выразили полную поддержку развитию ИИ-индустрии.

Несмотря на то, что среди ключевых стран возникли разногласия — США и Великобритания не подписали итоговое заявление о необходимости «включающего» и «открытого» сектора ИИ, поддержанное 60 государствами, — фокус двухдневной встречи сильно отличался от предыдущих конференций. На прошлогоднем саммите в Сеуле обсуждались опасные границы для индустрии ИИ. Основное беспокойство вызывало то, что эта многообещающая технология может нанести большой вред.

Реклама

Новые акценты

Однако всё изменилось. В итоговом заявлении не упоминались серьезные риски ИИ или попытки их смягчения. В своей речи во вторник вице-президент США Дж.Д. Вэнс заявил: «Я здесь не для того, чтобы говорить о безопасности ИИ, тема которой была главной на конференции несколько лет назад. Я здесь, чтобы обсуждать возможности ИИ».

Президент Франции и организатор саммита Эмманюэль Макрон подчеркнул прорежимную позицию, демонстрируя, как страны стремятся получить преимущество в разработке новых систем ИИ.

Воспоминания о Блетчли

Сдвиг в сторону усиления сектора ИИ и отступление от вопросов безопасности сильно контрастирует с первым глобальным саммитом по ИИ, проведенным в 2023 году в Великобритании, в Блетчли-парке. Он был посвящен вопросам снижения рисков, связанных с развитием технологий.

На втором глобальном саммите в Сеуле, прошедшем в 2024 году, лидеры договорились о добровольных обязательствах по безопасности от ведущих игроков ИИ, включая OpenAI, Google, Meta и крупных компаний из Китая, Южной Кореи и ОАЭ. В 2025 году Париж должен был стать местом определения границ рисков ИИ, которые требовали бы решений на международном уровне.

Тем не менее, Париж пошел по другому пути. Эксперт MIT Макс Тегмарк назвал это «полным провалом», заметив, что такое впечатление, будто они пытались отменить достижения Блетчли. Антропик, компания, занимающаяся безопасностью ИИ, назвала событие «упущенной возможностью».

Мировая гонка за преимуществом

Поворот событий происходил на фоне стремительного прогресса в ИИ. Вскоре до Парижского саммита в 2025 году компания OpenAI выпустила модель агента, способную выполнять исследовательские задачи на уровне компетентного выпускника.

Между тем, исследователи из области безопасности продемонстрировали, что современные модели ИИ могут обманывать своих создателей и копировать себя, чтобы избежать модификаций. Множество независимых ученых соглашаются с прогнозами компаний, что сверхчеловеческий уровень ИИ может быть достигнут в ближайшие пять лет, что может иметь катастрофические последствия, если нерешенные вопросы безопасности останутся незамеченными.

Однако США, в особенности, провели решительные доводы против регулирования отрасли. Вэнс выразил уверенность, что администрация Трампа «не может и не будет» принимать попытки иностранных правительств «закручивать гайки» для американских технологических компаний. Он также подверг критике европейские законы, такие как Закон об ИИ и Закон о цифровых услугах, назвав их чрезмерно ограничительными в отношении дезинформации в социальных сетях.

Новый вице-президент, поддерживаемый крупной базой венчурных капиталистов, подчеркнул, что его поддержка крупных технологических компаний не распространяется на регулирование, которое усложнит доступ стартапам, препятствуя развитию инновационных технологий ИИ.

«Ограничение развития ИИ сейчас не только несправедливо поддерживает крупных игроков, но и парализует одну из самых перспективных технологий нашего времени», — сказал Вэнс. «Когда крупная компания обращается к нам с просьбой о введении правил безопасности, стоит спросить, предназначены ли такие меры для блага нашего общества или на пользу компаниям-лидерам».

Дав сигнал об отсутствии интереса к проблемам рисков ИИ в Вашингтоне, администрация Трампа связала безопасность с ограничением «свободы слова» на платформах социальных сетей, борющихся с дезинформацией.

Источник: Time

Добавить комментарий

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Будьте в курсе самых важных событий

Нажимая кнопку "Подписаться", вы подтверждаете, что ознакомились с нашими условиями и соглашаетесь с ними. Политика конфиденциальности и Условия использования
Реклама