Какие компании в сфере ИИ являются самыми надежными, а какие — наиболее рискованными?

Какие компании в сфере ИИ являются самыми надежными, а какие — наиболее рискованными? Какие компании в сфере ИИ являются самыми надежными, а какие — наиболее рискованными?

Компании, стремясь создать более мощные технологии искусственного интеллекта, оставляют меры безопасности на втором плане. Недавний отчет показывает, как такие компании, как OpenAI и Google DeepMind, справляются с потенциальными угрозами своих технологий. Обнаружены слабые места в основных моделях всех участников исследования, и, хотя некоторые компании предпринимают шаги для повышения безопасности, другие отстают.

Отчет выпущен Институтом будущей жизни, целью которого является снижение глобальных катастрофических рисков. Организация в прошлом году собрала 30 тысяч подписей под открытым письмом, призывающим к паузе в разработке крупных моделей искусственного интеллекта. В отчете рассмотрены шесть ключевых областей: оценка рисков, текущие угрозы, структуры безопасности, стратегии по обеспечению экзистенциальной безопасности, управление и подотчетность, а также открытость и коммуникация. Оценка включала диапазон потенциальных вредов: от выбросов углекислого газа до угрозы выхода системы ИИ из-под контроля.

Реклама

Согласно данным проекта AI Safety Index, несмотря на активность компаний в области безопасности ИИ, результаты пока неэффективны. Например, Meta, материнская компания Facebook и разработчик модели Llama, занимает наименьшие позиции в рейтинге безопасности. Компания X.AI также показала низкий результат. OpenAI и Google DeepMind получили не более чем оценку D+ по уровню безопасности.

Компания Anthropic, известная своей ориентацией на безопасность, заняла наиболее высокую позицию, но даже она получила оценку C, что говорит о возможности дальнейшего улучшения. Все флагманские модели оказались уязвимыми к так называемым «взломам» системной безопасности. Текущие стратегии компаний признаны недостаточными для обеспечения безопасности будущих ИИ-систем, сопоставимых с человеческим интеллектом.

Нужен независимый надзор, чтобы избежать самодовольства компаний, не стремящихся к подотчетности. Некоторые компании могли бы использовать готовые руководства для улучшения своих практик безопасности. Однако фундаментальные проблемы производства ИИ потребуют технических прорывов для их решения. Текущие методы не предлагают количественных гарантий безопасности, и с ростом ИИ-систем это станет еще сложнее.

Важность отчетов, подобных AI Safety Index, заключается в привлечении внимания к ответственности компаний за безопасность и стимулировании их на более ответственный подход.

Источник: Time

Добавить комментарий
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Подписаться
Уведомить о

Будьте в курсе самых важных событий

Нажимая кнопку "Подписаться", вы подтверждаете, что ознакомились с нашими условиями и соглашаетесь с ними. Политика конфиденциальности и Условия использования
Реклама