Google представила новый отчет о злоупотреблениях ИИ-решением Gemini преступниками.
Обзор угроз:
- Злоумышленники из Ирана, Северной Кореи, России и других стран активно исследуют возможности системы.
- Хакеры пока только экспериментируют, но еще не нашли новых способов использования платформы.
В отчете Google отмечается, что десятки киберпреступных организаций по всему миру используют решение компании на базе искусственного интеллекта, известное как Gemini, в своих атаках. Специалисты Группы по киберразведке Google подчеркивают, что платформа пока не служит для создания новых методов атак, но она помогает более эффективно использовать существующие.
Преступники находят выгоды в повышении производительности, хотя пока они не разрабатывают что-то принципиально новое. В настоящее время киберпреступники применяют ИИ в основном для исследований, отладки кода, создания и локализации контента.
Наиболее активными пользователями Gemini среди киберпреступников являются группировки из Ирана, России, Китая и Северной Кореи. Эти группы используют платформу для разведки, исследования уязвимостей, написания скриптов и разработки, перевода и объяснений, а также для получения более глубокого доступа к системам и действий после компрометации.
В общей сложности Google зафиксировала деятельность 57 групп, из которых более 20 — из Китая. Среди более чем десяти северокорейских группировок выделяется APT42. Около трети использования Gemini со стороны Северной Кореи приходится именно на эту группу.
Активность APT42 включает в себя создание успешных фишинговых кампаний. Группа использует Gemini для проведения разведки среди специалистов в области политики и обороны, а также среди интересующих их организаций. APT42 также применяет возможности генерации и редактирования текста для составления фишинговых сообщений, особенно тех, которые нацелены на американские оборонные структуры. Группа использует Gemini и для перевода, включая адаптацию контента под местную аудиторию, что включает в себя перевод на беглый английский язык.
С момента выхода ChatGPT эксперты по безопасности предупреждали об его возможных злоупотреблениях в киберпреступной среде. До появления генеративных моделей ИИ лучшими способами распознавания фишинга были проверка орфографии, грамматики и логических противоречий в тексте. Теперь, когда за написание и редактирование отвечает ИИ, эти методы перестают быть эффективными, и специалисты по информационной безопасности ищут новые подходы.
Источник: TechRadar