Значение коалиции за безопасный ИИ для индустрии искусственного интеллекта

Искусственный интеллект меняет кибербезопасность: обучение становится ключевым фактором

Лидеры индустрии ИИ объединились для создания Коалиции за безопасный ИИ (CoSAI), что стало значительным шагом к усилению регулирования. Эта инициатива появилась в ответ на разрозненную ситуацию с безопасностью ИИ, где правительства не обладают достаточной экспертизой, а разработчикам не хватает единой практической структуры. Эти лидеры стремятся установить стандарты для регулирования безопасности ИИ, не препятствуя развитию и инновациям технологий.

Мировой рынок ИИ прогнозируется с ростом на 37.3% в год с 2023 по 2030 года и достижением стоимости £1,433.3 миллиарда к 2030 году. При этом многие утверждают, что регулирование и протоколы безопасности уже давно назревали.

Реклама

Коалиция за безопасный ИИ

По прогнозу Gartner, мировые расходы на информационную безопасность и управление рисками достигнут £173.2 миллиарда в 2023 году, что свидетельствует о растущем понимании важности защиты систем и данных ИИ.

CoSAI – это недавно созданная коалиция, направленная на разработку комплексных мер безопасности для ИИ, учитывая текущие и будущие риски. В коалицию входят такие ключевые игроки, как Google, Microsoft, OpenAI, Amazon, Anthropic, NVIDIA, IBM и Intel, которые будут совместно работать над стандартами и лучшими практиками в области безопасности ИИ.

Коалиция стремится к решению широкого спектра вопросов безопасности на протяжении всего жизненного цикла ИИ, включая разработку, интеграцию, внедрение и эксплуатацию систем ИИ. Особое внимание будет уделено уменьшению потенциальных рисков, таких как кража моделей, отравление данных, атаки на ввод, масштабные злоупотребления и атаки на вывод, а также разработке комплексных мер безопасности для борьбы с традиционными и специфичными для ИИ рисками.

Почему правительство занимает пассивную позицию

Обычно идея, что правительство позволяет лидерам отрасли разрабатывать регулирования для собственных продуктов, была бы абсурдной. Но когда технология столь революционна и быстро развивает, как ИИ, обсуждение меняется.

Внезапно, крупные игроки оказываются единственными, кто может писать правила, потому что именно они создают технологии, знают, какие опасности существуют, и как они, скорее всего, будут развиваться.

Конечно, правительство со временем догонит. Но это потребует времени, а риск позволить ИИ продолжать распространяться и развиваться без единой центральной структуры слишком велик. Некоторые регулирования лучше, чем их отсутствие, и хотя соблюдение их будет добровольным, компании, игнорирующие их, могут столкнуться с ретроактивными последствиями от своих правительств в будущем.

Что говорят критики

Хотя эта коалиция показывает, что лидеры ИИ добровольно взяли на себя инициативу в само-регулировании, проект также сталкивается со значительной критикой. Во-первых, существует опасение, что эти гиганты индустрии стремятся контролировать темпы развития ИИ и изолировать отрасль от новой конкуренции, создавая регуляции, выгодные им самим. Во-вторых, ограниченный состав коалиции, состоящий в основном из крупных технологических корпораций, вызывает сомнения в её способности действительно решить весь спектр проблем безопасности ИИ.

Наконец, несмотря на то, что коалиция сосредоточена на безопасности, многие задаются вопросом, почему в ней отсутствуют известные кибербезопасные компании, такие как Palo Alto Networks или Fortinet.

Генератор ИИ уже запущен

Несмотря на призывы приостановить рост ИИ со стороны таких известных личностей, как Илон Маск и сооснователь Apple Стив Возняк, большинство признаёт, что остановить развитие уже невозможно.

Компании оказались в схожей ситуации с той, что произошла с GDPR; долгосрочные обеспокоенности по поводу конфиденциальности данных достигли критической точки, но у компаний отсутствовала конкретная структура, которая бы подсказывала, что делать. Затем они объединились вокруг единой рамки. Коалиция – это начало этого процесса. Усилия по само-регулированию, подобные этим, ключевые для помощи правительствам и регуляторам, которые не успевают за технологическим прогрессом. Это может быть не идеально, что инициатива исходит от создателей и разработчиков технологий, но другого выбора нет. Возможно, CoSAI станет катализатором для более конкретных мер по обеспечению этического и безопасного использования ИИ.

В данный момент это будет полезно для всех, включая индустрию программного обеспечения. Даже если большинство использований ИИ в программах значительно менее рискованны, чем те, которые коалиция была создана для решения, это всё равно ценно для покупателей, чтобы иметь ответы и уверенность.

Заключение по CoSAI

Никто, в том числе основатели CoSAI, не считает, что эта коалиция является идеальным решением для долгосрочного регулирования ИИ. В идеальном мире правительство уже бы установило и внедрило комплексные меры безопасности и этики для ИИ. И они это сделают со временем. Однако компаниям нужна единая структура уже сейчас.

Таким образом, коалиция становится временной мерой до тех пор, пока правительство не будет готово взять на себя управление. Это хороший знак для всех отраслей, продвигая движение к ответственному и контролируемому использованию этой революционной технологии. Хотя обоснованная критика остаётся, важно помнить, что это всего лишь первый шаг – и все будут внимательно следить за руководящими принципами и регуляциями, возникающими из этой коалиции. На данный момент это шаг в правильном направлении.

Источник: TechRadar

Добавить комментарий

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Будьте в курсе самых важных событий

Нажимая кнопку "Подписаться", вы подтверждаете, что ознакомились с нашими условиями и соглашаетесь с ними. Политика конфиденциальности и Условия использования
Реклама