Искусственный интеллект в киберзащите: усиливает или ослабляет безопасность

·

·

Просмотров: 172

🎧 Слушать подкаст по теме

Представьте: нейросеть за секунды обнаруживает хакерскую атаку, блокирует угрозу и даже предупреждает следующую. Но в это же время другая ИИ-система создает идеальную фишинговую рассылку и обманывает даже самых осторожных сотрудников. Возникает вопрос, действительно ли интеллектуальные технологии укрепляют цифровую защиту, или, наоборот, создают дополнительные лазейки? Читайте, как умные системы помогают противостоять киберинцидентам, и какие риски они несут.

Инфографика: преимущества и риски использования ИИ в киберзащите

ИИ и новые вызовы для безопасности данных

Продвинутые интеллектуальные технологии помогают в защите данных, но в то же время усложняют ее. Киберпреступники теперь способны автоматизировать и усиливать взломы. Ниже — примеры, к каким рискам при защите информации приводит ИИ.

Диаграмма роста киберинцидентов, в которых использовали ИИ, с 2018 по 2025 год

Нейросети для генерации фейковых новостей

Современные технологии создают реалистичные тексты, изображения и звук.Это даёт злоумышленникам инструмент для массового распространения фейков и манипуляций. К примеру, нейросеть может составить фальшивую новость или смонтировать правдоподобное видео с вымышленными событиями. Из-за этого люди начинают верить ложным данным, что вызывает панику или влияет на настроение в обществе.

Реальный пример:
Недавно Google* выпустил инструмент Veo 3. Он создаёт гиперреалистичные видеоролики с изображением беспорядков, фальсификаций на выборах и других политически чувствительных сцен. [1] Такие фейки трудно отличить от настоящих. Они могут запускать ложные кампании, усиливать политическую пропаганду и разжигать конфликты, особенно в кризисные времена.

Опасны мультимодальные нейромодели, которые одновременно делают описание и визуальное сопровождение. Так поддельные материалы получают «аргументы» в виде искусственных фото. Из-за этого бизнес и госслужбы отслеживают медиапространство и вовремя опровергают фейки, чтобы сохранить доверие людей и не допустить манипуляций на фоне ложной информации.

Автоматизация атак и фишинг с помощью ИИ

Сравнение эффективности обычных и AI-сгенерированных фишинговых рассылок

Технологии, которые помогают автоматизировать защиту, используют и киберпреступники. Они обучают модели на больших массивах информации, чтобы усовершенствовать методы взлома. AI могут:

  • генерировать фишинговые письма и сообщения, имитируя стиль реальных людей или компаний;
  • находить слабые места в коде и создавать вредоносные программы;
  • обходить безопасность, например, обманывать CAPTCHA и фильтры, чтобы вести атаки незаметно.

Появляются автономные AI-агенты. Они работают без вмешательства человека, могут собирать информацию, ждать момента и совершать нападение. Их трудно обнаружить. Из-за этого злоумышленники запускают атаки больше и быстрее. Есть примеры, когда нейросети создают вирусы, которые не видят антивирусные программы. Это усложняет работу специалистов по защите информации.

Реальный пример:

Недавно исследователи проверили [2] эффективность автоматизированных фишинговых кампаний, которые сделали с помощью GPT-4o и Claude 3.5. Они создавали персонализированные письма на основе публичной информации и получили 54% переходов по фишинговым ссылкам. Это в 4–5 раз больше, чем в обычных фиш-рассылках, где контрольная группа показала лишь 12% кликов. AI-сгенерированные письма оказались не хуже, чем те, что составили эксперты, и при этом стоили дешевле. Поэтому преступники получают более высокий результат при меньших затратах.

Дипфейки и социальная инженерия

Дипфейки — поддельные видео или голосовые сообщения, которые создают с помощью нейросетей. Доверять аудио- или видеозвонкам, даже от «начальника», стало рискованно. Преступники копируют голос и лицо человека с такой точностью, что отличить фейк почти невозможно.

Так, в марте 2025 года финансовый директор в Сингапуре прошел на видеовстречу с «директорами» компаний. Перед ним были знакомые люди, которые говорили и выглядели как настоящие топ-менеджеры. Но на самом деле их создали с помощью дипфейк-технологий. Финансовый директор перевел почти $499 000 на фейковый счёт. [3]

А ещё в начале года жертвы в Австралии и других странах потеряли миллионы из-за AI-генерированных звонков, где звучал голос близкого человека в панике «срочно помоги», и жертвы переводили деньги. [4]

Основные функции ИИ в киберзащите

Умные технологии стали полезными помощниками в сфере киберзащиты. Они обрабатывают большие объемы информации и находят то, что сложно заметить человеку. Это помогает быстрее выявлять атаки и действовать на опережение. Такие решения работают в трёх направлениях:

  • предотвращают угрозы;
  • фиксируют инциденты, если что-то пошло не так;
  • помогают вовремя реагировать на опасности и минимизировать ущерб.

Разберëм подробнее каждую из этих задач.

Предупреждение

Умные технологии находят слабые места и определяют возможные риски, пока ими еще никто не воспользовался. Они:

  • Проверяют уязвимости в системе. AI-инструменты анализируют слабые точки ИТ-инфраструктуры: сканируют сеть, настройки серверов и коды приложений. Специалисты получают список проблем и могут устранить их. Вручную это занимает недели, а алгоритм осуществляет проверку за несколько часов. 
  • Делают пробный «взлом». Нейропомощники действуют как хакеры: перебирают пароли, ищут дыры, пытаются получить доступ. Уже есть расширения с AI для популярных инструментов безопасности и отдельные решения. Например, в 2024 году стартап XBOW представил умного помощника для пентестеров. [5] Тот смог найти критические уязвимости в веб-приложениях на этапе тестов. Это позволяет компаниям проверять свои системы регулярно и быстро, не дожидаясь настоящей атаки.
  • Прогнозируют риски и проводят цифровую разведку. Алгоритмы отслеживают, какие новые методы обсуждают в даркнете, соцсетях и форумах. Например, если в хакерских каналах активно дискутируют об уязвимости в популярной CMS, система подаёт сигнал: скоро начнутся атаки. У команды появляется несколько дней или недель, чтобы установить обновления и усилить защиту. Такие функции уже внедряют в модули крупных систем управления рисками.

Обнаружение

Современные ИТ-инфраструктуры генерируют огромные потоки информации: сетевой трафик, файлы, действия сотрудников. Среди этого нужно вовремя заметить признаки взлома. С задачей хорошо справляются обученные алгоритмы. Они:

  • Выявляют подозрительную активность. AI в реальном времени отслеживает поведение пользователей и серверов, запоминает, как обычно работает система, и подает сигнал, если видит что-то необычное. Это может быть странное соединение, незнакомый процесс или нестандартный запрос. В отличие от обычных правил, интеллектуальный механизм адаптируется под конкретную компанию и точнее реагирует на угрозы.
  • Фильтруют ложные срабатывания. В среднем организации получают тысячи оповещений в день. Специалисты тратят много времени на сортировку и могут упустить настоящее нападение. AI отбрасывает малозначимые сигналы и выводит только те, что требуют внимания. По данным отчета IBM 2024 года, [6] это сокращает время реагирования почти вдвое и снижает нагрузку на команду. 
  • Находят вредоносные файлы и письма. Когда появляются новые угрозы, антивирусные программы могут их не заметить. У них просто нет нужных записей в базе. Обученные модели проверяют содержимое писем, файлов и скриптов по множеству признаков. Так можно распознать вредоносный код или фишинговое письмо, даже если это совершенно новая разновидность атаки. Всё потому, что AI замечает скрытые признаки обмана, которые человек может упустить.

Такие решения помогают перехватывать те атаки, с которыми система не сталкивалась раньше.

Реагирование

Важно быстро и правильно реагировать на нападения. Искусственный помощник сильно ускоряет работу и берет на себя часть действий специалистов. Он:

  • Помогает принимать решения. Когда срабатывает тревога, система сразу собирает нужную информацию: что пытались взломать, какие части сети затронуты, как всё распространяется. Умный алгоритм объясняет, почему считает угрозу серьезной, и предлагает порядок действий. Например, чат-бот в центре мониторинга показывает логи, говорит, на что похож вредоносный код, и советует изолировать отдельный сегмент. Раньше на такой разбор уходило 20–30 минут, а с AI это занимает секунды. Команда быстрее переходит к действиям. 
  • Умеет отвечать на атаки. Это направление называют SOAR, когда безопасность, автоматизация и ответ объединены в одну платформу. Такие решения сигнализируют об угрозе, и сами запускают нужные действия. Например, блокируют IP-адрес или выполняют ряд действий: отключают учётные записи, меняют права доступа, сохраняют резервные копии. Всё зависит от ситуации. Если система уверена, что имеет дело с атакой, реагирует без участия человека. Такой подход позволяет остановить взлом за доли секунды и не дать угрозе повлиять на работу организации.

Важно: большинство компаний полностью не доверяют автоматике. Финальное решение обычно всё ещё принимает человек, но тренд очевиден. Всё больше этапов будет переходить на автопилот. Уже сейчас крупные организации обучают собственных помощников на своих данных. Такие системы подсказывают аналитикам, какие шаги предпринять в первую очередь, где искать проблемы, какие обновления ставить. А в дальнейшем, возможно, появятся автономные «кибер-дроны», которые будут отражать стандартные атаки в фоновом режиме.

Будущее ИИ в киберзащите

Всё идёт к тому, что начнëтся гонка: и защитники, и преступники будут всё активнее использовать алгоритмы.

Это открывает новые возможности. AI всё глубже встраивается в системы безопасности. Уже скоро большую часть рутинной работы в центрах мониторинга будут делать машины, а люди станут подключаться только в сложных случаях. Появятся новые решения для защиты облаков, устройств интернета вещей, промышленных объектов, — везде, где не хватает ресурсов.

Важный тренд — обучаемые на месте модели. Такие алгоритмы будут подстраиваться под конкретную инфраструктуру и учиться «на ходу». Это сделает защиту более гибкой и индивидуальной.

Но есть и риски. Киберпреступники уже работают с AI-разработчиками. В будущем возможны атаки, где вредоносные программы сами учатся и меняют поведение в процессе. Это значит, что без поддержки автоматических систем защититься будет всё труднее. Поэтому эксперты всё чаще говорят о сценарии «машина против машины», где атаки и ответные меры начнут происходить между алгоритмами без участия человека.

На российском рынке тоже активно развивается направление ИИ в киберзащите. Вендоры внедряют нейросети в защитные продукты. «Лаборатория Касперского» и другие компании используют машинное обучение при анализе угроз. Появились стартапы, которые автоматизируют пентесты, а в рамках государственного проекта «Искусственный интеллект» разрабатывают правила и рекомендации по безопасному внедрению AI.

Вывод: граница между атакой и защитой будет становиться всё более технологичной. В будущем при попытке взлома система сама начнет защищаться. Успех будет зависеть от того, чья нейросеть окажется сильнее, поэтому важно уже сейчас развивать свои защитные решения.

Проблемы ИИ в киберзащите

У умных систем в сфере киберзащиты есть и слабые стороны. Вот основные риски, которые стоит учитывать:

1. Ошибки в распознавании. Иногда AI-системы не замечают опасности, если атака нестандартная. Или, наоборот, принимают обычное действие за угрозу. Поэтому полностью полагаться на такие решения нельзя, особенно на старте. Нужно выделить время на настройку и постоянный контроль специалистов.

Галламова Айсылу, руководитель отдела обучения Universus

«Любая ИИ-модель нуждается в ручной настройке и тестировании на реальных кейсах. Без вовлечения специалистов по безопасности высок риск ложных выводов».

2. Уязвимость AI-инструментов.
Парадокс, но умные решения тоже можно атаковать. Есть приёмы, когда злоумышленник подсовывает «хитрые» данные, чтобы запутать модель. Кроме того, и сами платформы могут содержать дыры. Примеры:

Это значит, что защищать нужно и сами нейросети: их код, API и обучающие данные.

3. Конфиденциальность и этика. Чтобы работать, алгоритмам нужны данные, в том числе чувствительные: кто, что и когда делал в системе. Эти журналы активности могут оказаться в чужих руках или использоваться неправильно.
Есть и другие риски:

  • Модель может сохранить куски обучающих данных и выдать их случайно. 
  • Алгоритм может быть предвзятым. Так, если его обучали на плохом наборе, он будет недооценивать реальные угрозы или игнорировать важные сигналы.

4. Сложность внедрения. Настроить AI под конкретную инфраструктуру непросто. Нужны специалисты, которых ещё немного, а еще время и ресурсы. Малому бизнесу это часто не по силам. Есть облачные решения, которые проще в использовании, но и их нужно проверять: куда уходят данные, как будет работать кастомизация. 

Поэтому важно понимать: даже самые продвинутые инструменты не гарантируют идеальную защиту. Они требуют грамотной настройки, контроля и бережного обращения с данными. Только так ИИ усилят безопасность, а не создадут новые проблемы.

Выводы

Умные технологии в цифровой защите — мощный помощник. С ними легче заметить атаки, отреагировать и снять лишнюю нагрузку с людей. Но преступники тоже используют ИИ — быстрее взламывают системы, обманывают людей реалистичными фейками и находят новые лазейки для атак. Вопрос не в том, хорош ли AI, а в том, как и кто его применяет. Чтобы технология была полезной, предстоит:

  • правильно её настраивать;
  • обучать сотрудников работе с ней;
  • защищать модели и их данные;
  • учитывать вопросы этики.

Важно сделать ИИ надёжным помощником, который ускоряет работу и избавляет от рутинных задач. Нейросети меняют подход к безопасности, но и сами требует внимания. Кто научится использовать их разумно, получит сильное преимущество.

Галламова Айсылу, Universus

«Обучение в Universus строится не только на инструментах, но и на понимании логики моделей. Это помогает специалисту принимать обоснованные решения и доверять результату».

Нейросети полезны не только для защиты. Они помогают в бизнесе, творчестве и даже заработке. Если вам интересно, как использовать эти инструменты для дохода, приходите на обучение в Universus.

* Некоторые сервисы, упомянутые в статье (в том числе от Google), могут быть частично или полностью недоступны на территории РФ.

Вопрос — ответ

1. Можно ли доверять ИИ в кибербезопасности без участия человека?

Нет. Даже самые продвинутые алгоритмы ошибаются, потому что не видят контекста и не понимают бизнес-ценности. Поэтому финальное решение должен принимать специалист. ИИ — помощник, а не замена.

2. Подходит ли ИИ-защита для малого бизнеса, у которого нет своей ИБ-команды?

Частично. Облачные решения с автоматикой — хорошее начало. Но важно понимать, как они работают и что защищают. Без базового понимания рисков ИИ не поможет.

3. Можно ли обучить ИИ под конкретную компанию?

Да, это уже делают крупные организации. Модель настраивается под типичный трафик и поведение внутри сети, и постепенно адаптируется. Это позволяет точнее находить угрозы для вашей инфраструктуры.

  1. time.com
  2. malwarebytes.com
  3. tookitaki.com
  4. wral.com
  5. medium.com
  6. secureframe.com
  7. helpnetsecurity.com
  8. wiz.io

Подпишитесь на наш телеграм-канал «Волосянков про нейросети»


Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Бесплатно

После регистрации вы получите ГАЙД «7 способов заработка на нейросетях с примерами».

Бесплатно

Внутри бесплатный курс о том, как пользоваться нашим ботом.