ВМФ США запрещает использование DeepSeek из-за опасений за безопасность и этику.

Сбой в работе DeepSeek и последние новости о сопернике ChatGPT Сбой в работе DeepSeek и последние новости о сопернике ChatGPT

ВМС США запретили использование нового чат-бота DeepSeek

  • DeepSeek — AI разработки китайской компании
  • Чат-бот является конкурентом ChatGPT

Новый AI чат-бот DeepSeek недавно вызвал оживление на рынке благодаря своему открытому исходному коду, который значительно снижает стоимость существующих моделей языков. DeepSeek принадлежит и управляется хедж-фондом в Ханчжоу, что вызывает обеспокоенность среди американских технологических компаний и государственных учреждений. ВМС США настоятельно рекомендовали не использовать данную технологию из-за «потенциальных угроз безопасности и этических соображений, связанных с происхождением и использованием модели».

Реклама

Этот шаг, как сообщается, является частью политики генеративного AI Департамента информационных технологий ВМС, и получателям электронных писем было предложено «воздержаться от загрузки, установки или использования модели DeepSeek».

Проблемы конфиденциальности AI

Политика конфиденциальности чат-бота DeepSeek может вызвать недовольство у тех, кто заботится о личной информации, учитывая, что бот собирает персональные данные пользователей и хранит их на серверах в Китае. Однако, стоит отметить, что этот вопрос не уникален для DeepSeek — аналогичные проблемы конфиденциальности существуют и у ChatGPT.

Но беспокойство вызывает не только политика конфиденциальности. DeepSeek стал жертвой успешного нападения, возможно, атаки типа «отказ в обслуживании» (DDoS), что вынудило платформу временно приостановить регистрацию новых пользователей.

«Открытые модели AI, такие как DeepSeek, хотя и предоставляют доступность и инновации, все чаще становятся уязвимыми для атак на цепочки поставок, инициируемых во время масштабных кибератак,» — сказал Адитья Суд, вице-президент по безопасности и стратегии AI в компании Aryaka.

Эти нападения, в которых злоумышленники используют зависимости от сторонних разработчиков, предварительно обученные модели или публичные репозитории, могут иметь серьёзные последствия. Злоумышленники могут встраивать в предварительно обученные модели вредоносный код, «черные ходы», или «зараженные» данные, что может нанести ущерб приложениям дальше по цепочке.


Источник: TechRadar

Добавить комментарий

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Будьте в курсе самых важных событий

Нажимая кнопку "Подписаться", вы подтверждаете, что ознакомились с нашими условиями и соглашаетесь с ними. Политика конфиденциальности и Условия использования
Реклама