Уязвимость DeepSeek: Отчет предупреждает о возможных атаках на ИИ-инструмент

Уязвимость DeepSeek: Отчет предупреждает о возможных атаках на ИИ-инструмент Уязвимость DeepSeek: Отчет предупреждает о возможных атаках на ИИ-инструмент

Низкая безопасность модели DeepSeek в тестах на уязвимость

Недавно представленная модель искусственного интеллекта DeepSeek проявила себя крайне неудачно в тестах на безопасность.

Реклама

Новый отчет от Cisco указывает на то, что модель DeepSeek R1 продемонстрировала 100% успешность атак, не сумев заблокировать ни один вредоносный запрос. Эта модель, ранее признанная конкурентом самым известным чатботам, уже столкнулась с утечкой данных, в результате которой были оставлены незащищенными более миллиона записей и критически важные базы данных.

Вредоносные запросы

В рамках теста Cisco использовало 50 случайных запросов из набора данных HarmBench, охватывающих шесть категорий вредоносного поведения: дезинформация, киберпреступность, незаконная деятельность, химические и биологические угрозы, общие виды вреда.

Использование подобных вредоносных запросов с целью обойти ограничения и правила пользования ИИ также называется «взломом» (jailbreaking). Результаты показали, что модель R1 не смогла заблокировать ни один вредоносный запрос, что говорит о недостаточной защите модели. Таким образом, DeepSeek оказалась особо уязвимой для алгоритмического взлома и потенциального злоупотребления.

В сравнении с другими моделями, DeepSeek продемонстрировала худшие результаты. Например, модель O1 проявила наименьшую уязвимость к атакам, с уровнем успеха атак всего в 26%.

Для сравнения, GPT 1.5 Pro имела 86% уровень успешности атак, а Llama 3.1 405B — 96%.

Cisco подчеркивает: «Наши исследования подчеркивают срочную необходимость проведения тщательной оценки безопасности при разработке ИИ, чтобы гарантия эффективности и логики не происходила за счет безопасности».

Как оставаться в безопасности при использовании ИИ

При выборе чатбота важно учитывать факторы безопасности. К примеру, модели, такие как ChatGPT, могут представлять угрозу конфиденциальности, поскольку они хранят персональные данные пользователей. Компания OpenAI, владеющая ChatGPT, не запрашивает согласие пользователей на использование их данных, и пользователи не могут проверить, какая информация была сохранена.

Подобные вопросы возникают и у DeepSeek, так как компания может собирать имена, адреса электронной почты и техническую информацию устройств при вводе данных пользователями.

Если вы против использования ваших данных для обучения моделей, ИИ-чатботы вероятно не для вас.

Чтобы безопасно пользоваться чатботом, остерегайтесь рисков: проверяйте подлинность чатбота, избегайте ввода личной информации, особенно финансовой, медицинской и логин-данных. Даже в случае подлинности чатбота, атака может привести к утечке данных, вызывая риск кражи личности и серьезные последствия.

Хорошей практикой является использование надежных паролей и регулярное обновление программного обеспечения для устранения уязвимостей, а также мониторинг аккаунтов на предмет подозрительной активности.


Источник: TechRadar

Добавить комментарий

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Будьте в курсе самых важных событий

Нажимая кнопку "Подписаться", вы подтверждаете, что ознакомились с нашими условиями и соглашаетесь с ними. Политика конфиденциальности и Условия использования
Реклама