Top.Mail.Ru
  • USD Бирж 1.06 +8394.83
  • EUR Бирж 13.81 +81.5
  • CNY Бирж 29.45 --15.61
  • АЛРОСА ао 51.41 -0.86
  • СевСт-ао 1170 -23
  • ГАЗПРОМ ао 126.54 -1.84
  • ГМКНорНик 113.08 -3.06
  • ЛУКОЙЛ 6891 -56
  • НЛМК ао 127.78 -1.84
  • Роснефть 461.4 -3.95
  • Сбербанк 243.74 -3.29
  • Сургнфгз 24.75 -0.59
  • Татнфт 3ао 551.6 -10.3
  • USD ЦБ 100.22 100.03
  • EUR ЦБ 105.81 105.73
Константин Мушовец
Директор USSC-SOC ООО «УЦСБ»
Искусственный интеллект в SOC:
помощь аналитикам и прогноз на ближайший год
КОГДА СХОДЯТСЯ ЗВЕЗДЫ
Современные центры мониторинга информационной безопасности (Security Operations Centers, SOC) сталкиваются с новыми вызовами, связанными с ростом числа кибератак, скрытых и продолжительных APТ-атак, увеличением потока событий безопасности от дополнительных источников, таких как NTA, EDR, XDR, сложностью найма и подготовки аналитиков, обрабатывающих инциденты безопасности.
Возможным инструментом, способным помочь SOC справляться с этими вызовами, является искусственный интеллект (ИИ). Накопленный в SOC объем размеченных данных позволяет тестировать и применять технологии ИИ. Одним из первых направлений применения ИИ в SOC является автоматизация рутинных задач и облегчение работы аналитиков.
Сегодня аналитики SOC сталкиваются с необходимостью обработки огромного количества данных в реальном времени, что является сложной и ресурсоемкой задачей
Применение ИИ позволит уменьшить время, затрачиваемое на ручную обработку данных, благодаря этому у специалистов появится возможность сосредоточиться на сложных и важных задачах анализа инцидентов и выявления признаков атак, требующих человеческого интеллекта и опыта. В SOC УЦСБ (коммерческое название — USSC-SOC) тестируется решение на основе искусственного интеллекта, которое автоматически классифицирует инциденты на ложные и реальные.
В перспективе этот модуль значительно упростит работу аналитиков первой линии, позволяя им быстро определять характер инцидентов и принимать соответствующие решения.
Также проводится исследование возможности создания решения на основе искусственного интеллекта, которое будет дополнять рекомендации, предоставляемые аналитиками заказчику. В том числе анализировать аналогичные инциденты и обогащать рекомендации под конкретный инцидент, проводить анализ логов смежных событий, которые повлекли за собой формирование инцидента и дополнять рекомендации с учетом этой информации. Это позволяет учитывать неочевидные аспекты, которые могут значительно повысить качество и эффективность реагирования на инциденты.
В перспективе года возможно создание локальной справочной системы для аналитиков, являющейся единой базой знаний SOC
Эта система будет оснащена обширной базой данных о различных системах, мониторинг которых осуществляет SOC, включая команды, настройки и иную информацию, используемую при обработке инцидентов информационной безопасности. Пользователи смогут использовать естественный язык для формулировки запросов, что позволит системе интерпретировать вопросы и предоставлять актуальную и релевантную информацию.
Одной из ключевых возможностей справочной системы будет предоставление контекстуальных подсказок, предлагающих наиболее подходящие команды и действия в зависимости от текущего контекста работы аналитика. База знаний будет регулярно обновляться на основе новых руководств, инструкций и опыта аналитиков, обеспечивая актуальность информации.
Подобное решение позволит ускорить процессы обучения новых сотрудников, облегчить работу опытных аналитиков и снизить вероятность ошибок благодаря предоставлению точных и проверенных инструкций для работы с различными системами.
Таким образом, несмотря на то что сфера информационной безопасности традиционно является консервативной, применение искусственного интеллекта в SOC открывает новые возможности для повышения уровня кибербезопасности, и в ближайший год ожидается значительное увеличение интереса к тестированию и пилотированию технологий ИИ в SOC. Компании будут активнее инвестировать в разработку ИИ-решений для SOC, и через год на рынке появятся первые коммерческие продукты. На первом этапе ИИ будет применяться как помощник аналитиков SOC, но уровень доверия к результатам работы ИИ еще будет низким из-за неприемлемого риска ошибок.
С развитием ИИ возрастет потребность в специалистах, умеющих эффективно работать с новыми технологиями
Производители средств защиты информации и компании-интеграторы в ближайший год будут активно инвестировать в обучение и набор кадров, способных успешно применять, защищать и интегрировать технологии искусственного интеллекта. Образовательные учреждения также будут активно развивать программы по подготовке специалистов, способных работать с передовыми технологиями в области кибербезопасности.
Технологии будущего в SOC
Основными задачами, мотивирующими исследователей и создателей новых технологий на базе ИИ для SOC, являются необходимость автоматизировать сложные операции, в том числе с умением подстраиваться под изменяющиеся обстоятельства, а также обработка и полезное использование большого количества разнородной информации, в том числе неструктурированной и меняющейся со временем.
Атаки становятся все более сложными по структуре, поэтому для их обнаружения необходимо учесть множество факторов, сигналов и сообщений от различных систем, а также обработать информацию из различных систем управления знаниями
Методы описательной, предиктивной и предписывающей аналитики в таких условиях становится сложно использовать, они требуют специальных новых подходов с использованием анализа данных и машинного обучения. Проектируемые для таких условий системы ИИ получаются громоздкими, требуют множества ресурсов, выглядят для пользователя как «черный ящик из миллиарда параметров». Их работу сложно объяснить, а значит, и невозможно контролировать. Поэтому одновременно с разработкой продвинутых методов ИИ для SOC будет уделяться внимание повышению объяснимости и надежности (Explainable & Reliable AI) алгоритмов обнаружения и анализа паттернов аномалий. То есть важно не только найти аномальное поведение в системе, но и дать пользователю удобную в восприятии и информативно содержательную подсказку, обосновывающую решение ИИ.
Сейчас существуют подходы, которые позволяют понять логику работы даже очень больших моделей. Это позволяет контролировать создание, модификацию и удаление сведений, используемых для принятия решений алгоритмами ИИ. Но применение подобных подходов в информационной безопасности находится на стадии развития ввиду сложности предметной области и многообразия возможных сценариев.
Например, одним из способов реализации объяснимых для человека моделей ИИ в SOC является подход, при котором ИИ учится создавать простые и понятные для человека правила принятия решений — так называемые «быстрые» алгоритмы. Cоздает их на основе анализа больших данных моделями ИИ («медленных» алгоритмов), при этом в случае появления новой информации синхронизируются обе данные части «мозга ИИ».
Хорошей возможностью для повышения эффективности SOC является создание цифрового ассистента аналитика SOC с использованием больших языковых моделей (LLM)
Создание неспециализированного чат-бота с применением LLM является относительно простой задачей. Но если речь идет про цифрового ассистента со специальными и зачастую уникальными отраслевыми знаниями, а также владеющего закрытой информацией о защищаемом предприятии или системе, то это создает дополнительные сложности в реализации подобных архитектур ИИ. В таких системах необходим инструмент для формирования и управления знаниями, например база документов, фактов, графы знаний, на основе которых будут учиться и работать алгоритмы ИИ.
Технологически непросто вложить в агента ИИ, например в LLM, набор специальных отраслевых сведений, которые к тому же имеют сложную структуру и постоянно изменяются. Однако реализация подобных технологий и подходов позволит создать совершенно новый рынок труда, когда компания принимает на работу цифровых сотрудников.
Например, работодатель может «принять» на работу десять «цифровых аналитиков SOC первой линии мониторинга», двух «цифровых аналитиков SOC второй линии мониторинга» со знанием методов атаки и защиты web-приложений и одного «изолированного от внешней среды узкоспециального эксперта SOC», обладающего знаниями об инфраструктуре конкретной защищаемой компании.
Ряд этих свойств присущ человеку, а вот требование «изолированности» от внешней среды сотрудника-человека сопряжено с рядом трудностей, в том числе морально-этического характера. Возможно, это приведет к изменению рынка труда и потребует создания специальных нормативных документов, регламентирующих такую схему трудовых взаимоотношений, но технологическая основа для подобных решений создается сейчас.
Тем не менее даже в отдаленном будущем будет важна роль человека, поэтому новые технологии создаются с учетом требования вовлеченности человека в процесс
Конечно, новые подходы и условия в отрасли требуют от специалистов повышения квалификации, навыков применения методов ИИ в работе, а также, возможно, и получения совершенно новых знаний и умений, о которых мы сейчас не задумываемся. Этой цели могут служить киберполигоны, на которых будут обучаться аналитики, апробироваться и сравниваться между собой автоматизированные алгоритмы для SOC.
Все большее внимание будет уделяться вопросу доверия результатам подобных полигонов, используемым в них технологиях
Эталонный киберполигон, результатам которого будут доверять производители и пользователи систем информационной безопасности, позволит сделать более прозрачным процесс тестирования и проверки соответствия требованиям к программному обеспечению, будет являться мерилом для проверки экспертных знаний специалистов и качества работы программ.
Важно, что такие киберполигоны также позволят формировать доверенные наборы данных для обучения и проверки алгоритмов глубокого машинного обучения, применяющихся в SOC. Зачастую качественный набор данных обладает гораздо большей ценностью, чем сама модель машинного обучения, поскольку без данных невозможно никакое машинное обучение, а при их наличии возможно создание все более качественных моделей. Поэтому вопрос формирования доверенных источников данных для технологии ИИ в информационной безопасности, и в частности в SOC, является приоритетным.
Также стоит упомянуть, что стратегии и тактики компьютерной атаки и защиты от нее становятся все более изощренными. Есть классические математические модели, которые сейчас затруднительно применять для решения задач кибербезопасности, они не используются активно, но являются предметом исследований и разработок. Например, очень перспективным выглядит применение методов теории игр для моделирования ситуаций атаки и защиты.
Обучение с подкреплением (Reinforcement Learning) является важным разделом машинного обучения, основанным на теории игр, и все чаще находит применение в практических приложениях. Например, алгоритмы, основанные на Reinforcement Learning, уже умеют обыгрывать человека в Го и даже в Dota. Моделирование сложных многоходовых сценариев атаки и защиты возможно реализовать с применением многоагентного глубокого обучения с подкреплением (Multi Agent Deep Reinforcement Learning).
Это дает перспективную возможность создания и тренировки автоматизированных интеллектуальных алгоритмов атаки и защиты, однако для практической реализации такого подхода необходимы инструменты описания среды, в которой происходит обучение. А это возможно только с созданием специализированных систем организации знаний, позволяющих строить онтологии систем различного уровня с учетом их свойств и возможных действий объектов взаимодействия. Фреймворк MITRE является примером подобных систем организации знаний в ИБ. Подобные фреймворки, учитывающие конкретные практические задачи, перспективно создавать и развивать.
Что касается противодействия компьютерным атакам, в первую очередь APT (Advanced Persistent Threats), в ближайшие три года ожидается значительный прогресс технологий борьбы с ними
С развитием технологий искусственного интеллекта и машинного обучения защита от АРТ станет более эффективной и проактивной. Организации будут активно внедрять системы, способные не только обнаруживать, но и предугадывать возможные сценарии атаки, анализировать большие объемы данных и выявлять аномалии в реальном времени. Такая проактивная защита позволит сократить время реагирования на инциденты и минимизировать потенциальный ущерб.
В целом отрасль ИИ сейчас переживает настолько бурное развитие, что строить прогнозы на несколько лет вперед является делом неблагодарным, новые технологии и идеи появляются почти каждый день. Однако перечисленные технологии многообещающие, они основаны на проверенных методах ИИ и уже являются предметом исследований и разработок в компаниях-производителях средств защиты информации. Скорее всего, мы скоро увидим появление подобных решений и сможем оценить их работу на практике.