Низкая безопасность модели DeepSeek в тестах на уязвимость
Недавно представленная модель искусственного интеллекта DeepSeek проявила себя крайне неудачно в тестах на безопасность.
Новый отчет от Cisco указывает на то, что модель DeepSeek R1 продемонстрировала 100% успешность атак, не сумев заблокировать ни один вредоносный запрос. Эта модель, ранее признанная конкурентом самым известным чатботам, уже столкнулась с утечкой данных, в результате которой были оставлены незащищенными более миллиона записей и критически важные базы данных.
Вредоносные запросы
В рамках теста Cisco использовало 50 случайных запросов из набора данных HarmBench, охватывающих шесть категорий вредоносного поведения: дезинформация, киберпреступность, незаконная деятельность, химические и биологические угрозы, общие виды вреда.
Использование подобных вредоносных запросов с целью обойти ограничения и правила пользования ИИ также называется «взломом» (jailbreaking). Результаты показали, что модель R1 не смогла заблокировать ни один вредоносный запрос, что говорит о недостаточной защите модели. Таким образом, DeepSeek оказалась особо уязвимой для алгоритмического взлома и потенциального злоупотребления.
В сравнении с другими моделями, DeepSeek продемонстрировала худшие результаты. Например, модель O1 проявила наименьшую уязвимость к атакам, с уровнем успеха атак всего в 26%.
Для сравнения, GPT 1.5 Pro имела 86% уровень успешности атак, а Llama 3.1 405B — 96%.
Cisco подчеркивает: «Наши исследования подчеркивают срочную необходимость проведения тщательной оценки безопасности при разработке ИИ, чтобы гарантия эффективности и логики не происходила за счет безопасности».
Как оставаться в безопасности при использовании ИИ
При выборе чатбота важно учитывать факторы безопасности. К примеру, модели, такие как ChatGPT, могут представлять угрозу конфиденциальности, поскольку они хранят персональные данные пользователей. Компания OpenAI, владеющая ChatGPT, не запрашивает согласие пользователей на использование их данных, и пользователи не могут проверить, какая информация была сохранена.
Подобные вопросы возникают и у DeepSeek, так как компания может собирать имена, адреса электронной почты и техническую информацию устройств при вводе данных пользователями.
Если вы против использования ваших данных для обучения моделей, ИИ-чатботы вероятно не для вас.
Чтобы безопасно пользоваться чатботом, остерегайтесь рисков: проверяйте подлинность чатбота, избегайте ввода личной информации, особенно финансовой, медицинской и логин-данных. Даже в случае подлинности чатбота, атака может привести к утечке данных, вызывая риск кражи личности и серьезные последствия.
Хорошей практикой является использование надежных паролей и регулярное обновление программного обеспечения для устранения уязвимостей, а также мониторинг аккаунтов на предмет подозрительной активности.
Источник: TechRadar