Опубликовано 29 декабря 2025, 11:33
3 мин.

Антивирус не спасёт: теперь ИИ пишет вирусы преступникам и подсказывает, как взломать пароли

30% утечек данных — из-за самих работников, а атаки на модели выросли на 48%
Искусственный интеллект должен был освободить нас от рутины. Но в 2025 году он внезапно превратился в… главный источник проблем. Я Сергей Крюков, эксперт НИР Груп, сегодня расскажу вам, как компании теряют сотни миллионов рублей из-за того, что ИИ стал любимой игрушкой не только сотрудников, но и злоумышленников.
Антивирус не спасёт: теперь ИИ пишет вирусы преступникам и подсказывает, как взломать пароли

30% всех утечек — дело рук сотрудников

Да-да, не вирусы, не хакеры из фильмов, а самые обычные офисные ребята, которые просто «попросили ИИ помочь с отчётом».

Аналитика НИР Груп показывает: около 30% утечек происходят из-за того, что сотрудники сами загружают внутренние документы в публичные ИИ-сервисы

Сергей Крюков
эксперт НИР Груп

Финансовые отчёты? Были.

Клиентские данные? Были.

Внутренние документы? О, ещё как.

25% компаний уже официально зафиксировали такие утечки. И всё это — просто потому, что человеку нужно быстрее закончить задачу. Проблема в том, что ИИ-сервисы находятся не внутри корпоративной инфраструктуры. Это как рассказывать секреты компании в такси — водитель вроде и молчит, но куда потом уедет эта информация — никто не знает.

Атаки на ИИ выросли на 48%: теперь бьют по мозгам системы

В 2025 году случилось новое: хакеры начали лезть в саму начинку — модели ИИ.

Количество успешных атак выросло на 48% всего за год. В арсенале злоумышленников появились совершенно новые приёмы:

  • инъекции промптов — когда модель заставляют игнорировать правила и выдавать секреты;

  • «отравление» данных — когда в ответы подмешивают вредоносный контент;

  • манипуляции контекстом — можно заставить модель принимать неверные решения.

Если коротко: «мозг» компании становится объектом охоты.

ИИ помогает… хакерам? Да! Он сам генерирует вредоносный код

Оказывается, модели могут по незнанию:

  • предложить опасный SQL-запрос;

  • сгенерировать вредоносный JavaScript;

  • случайно подсказать, как удалить данные;

  • помочь подобрать пароль (буквально — идеально автоматизирует скучный подбор).

А иногда ИИ так хорошо имитирует человека, что обходит капчи, как будто за него работает самый терпеливый школьник на подработке. Особенно достается ритейлу.

Сотрудники загружают в ИИ данные по промо, а злоумышленники через хитрые запросы ищут дыры в логике акций — и используют результаты уже против компании.

Обычные системы безопасности больше не работают

Антивирусы, контроль трафика, периметр — всё это не видит, что происходит внутри ИИ. А именно там сегодня и сидит главный риск. Это всё равно что поставить пять замков на дверь, но оставить окно открытым — и даже не подозревать, что у окна теперь тоже есть Wi-Fi и оно умеет разговаривать.

Одна атака — минус 100–200 млн ₽. А к 2027 году ущерб приблизится к 4 трлн ₽

Цифры — как холодный душ для бизнеса:

  • один инцидент обходится компаниям в 100–200 млн ₽;

  • для крупных игроков счёт идёт на десятки миллиардов;

  • к 2027 году суммарный ущерб от атак с участием ИИ достигнет 40 млрд $ (≈4 трлн ₽).

И да, такие случаи уже происходят. Самый громкий пример: взлом криптобиржи Balancer — украли 120 млн $ (≈12 млрд ₽), просто манипулируя работой алгоритмов.

Вывод простой и неприятный

ИИ не злодей сам по себе — опасность в том, что сотрудники слишком ему доверяют, он стал новой целью для атак, а привычные системы безопасности просто не видят, что происходит внутри модели. Сегодня ИИ — как мощный двигатель в машине: пока всё работает, ехать удобно, но стоит появиться малейшей неисправности, то последствия обходятся очень дорого, а ремонт оказывается куда больнее и затратнее, чем своевременная защита.