Компании, стремясь создать более мощные технологии искусственного интеллекта, оставляют меры безопасности на втором плане. Недавний отчет показывает, как такие компании, как OpenAI и Google DeepMind, справляются с потенциальными угрозами своих технологий. Обнаружены слабые места в основных моделях всех участников исследования, и, хотя некоторые компании предпринимают шаги для повышения безопасности, другие отстают.
Отчет выпущен Институтом будущей жизни, целью которого является снижение глобальных катастрофических рисков. Организация в прошлом году собрала 30 тысяч подписей под открытым письмом, призывающим к паузе в разработке крупных моделей искусственного интеллекта. В отчете рассмотрены шесть ключевых областей: оценка рисков, текущие угрозы, структуры безопасности, стратегии по обеспечению экзистенциальной безопасности, управление и подотчетность, а также открытость и коммуникация. Оценка включала диапазон потенциальных вредов: от выбросов углекислого газа до угрозы выхода системы ИИ из-под контроля.
Согласно данным проекта AI Safety Index, несмотря на активность компаний в области безопасности ИИ, результаты пока неэффективны. Например, Meta, материнская компания Facebook и разработчик модели Llama, занимает наименьшие позиции в рейтинге безопасности. Компания X.AI также показала низкий результат. OpenAI и Google DeepMind получили не более чем оценку D+ по уровню безопасности.
Компания Anthropic, известная своей ориентацией на безопасность, заняла наиболее высокую позицию, но даже она получила оценку C, что говорит о возможности дальнейшего улучшения. Все флагманские модели оказались уязвимыми к так называемым «взломам» системной безопасности. Текущие стратегии компаний признаны недостаточными для обеспечения безопасности будущих ИИ-систем, сопоставимых с человеческим интеллектом.
Нужен независимый надзор, чтобы избежать самодовольства компаний, не стремящихся к подотчетности. Некоторые компании могли бы использовать готовые руководства для улучшения своих практик безопасности. Однако фундаментальные проблемы производства ИИ потребуют технических прорывов для их решения. Текущие методы не предлагают количественных гарантий безопасности, и с ростом ИИ-систем это станет еще сложнее.
Важность отчетов, подобных AI Safety Index, заключается в привлечении внимания к ответственности компаний за безопасность и стимулировании их на более ответственный подход.
Источник: Time
Добавить комментарий
Ваш адрес email не будет опубликован.