Одним из самых заметных трендов нескольких последних лет стало резкое развитие технологий искусственного интеллекта (ИИ). От ИИ ожидают очень многого — от передела рынка труда в сегменте интеллектуальных профессий до перестройки ряда отраслей, включая промышленность и медицину. Однако пока это больше теоретические рассуждения, чем практика. В числе тех немногих, кто уже видит как позитивные, так и негативные последствия развития ИИ — специалисты информационной безопасности. Как отмечают эксперты организованного компанией «Газинформсервис» форума GIS Days, пока доверять ИИ серьезные решения нельзя, а вот защищаться от него — уже приходится.
Война с внештатным сисадмином
Эксперты уверены, что к использованию решений на базе технологии искусственного интеллекта рынок подталкивает трансформация ландшафта атак, которым подвергаются российские предприятия и организации. Также драйвером является активное использование злоумышленниками всех технологических инноваций, в числе которых и ИИ.
Руководитель направления пресейла Xello Дмитрий Черников отметил, что с 2022 года наблюдается рост количества целевых атак. Это тенденция сохранится и в следующем году. «По оценкам вендоров, порядка 68% атак в первом полугодии носили целевой характер, и большая часть из них была достаточно успешной, — объясняет эксперт. — Злоумышленникам в среднем требуется чуть-чуть больше часа на проникновение в сеть, а оставаться в ней незамеченными они могут по 16 дней. Все это время они могут работать вашим внештатным сисадмином в ожидании часа X. При этом киберпреступники используют различные продвинутые техники и тактики, так что для сокращения времени его обнаружения ИБ-специалисты должны также использовать все возможные инструменты — в том числе ИИ».
Бизнес-консультант по информационной безопасности Positive Technologies Алексей Лукацкий считает, что у ИБ-игроков есть несколько путей увеличения шансов в борьбе против киберпреступников. Первый — это консолидация усилий. Однако, по словам эксперта, каждый из игроков с февраля прошлого года убежден, что он съест весь «пирог» сам и делиться ни с кем не должен. Поэтому альянсы в области кибербезопасности в России — это достаточно отдаленная перспектива.
«Второй вариант — объединение заказчиков, но это еще более утопическая история, потому что каждый из них обладает своей конфиденциальной информацией и делиться ею с другими не будет. Тем более, не будет он делиться своими ИБ-специалистами и средствами защиты, — говорит Лукацкий. — Еще один путь — наращивать количество высококвалифицированных ИБ-специалистов внутри компании. Но мы понимаем, что при дефиците кадров и в условиях не очень хорошего российского образования эта задача не решается быстро. Остается одна альтернатива — заменять людей роботами, т.е. использовать искусственный интеллект».
Накапливая зрелость
Правда, пока использование ИИ в сфере инфобезопасности не носит массового характера. По словам заместителя генерального директора компании «Газинформсервис» Романа Пустарнакова, серьезное программное обеспечение со значительной долей искусственного интеллекта только выходит на рынок — это очень новые продукты, которые еще не вышли в тираж, их еще не начали широко распространять. Поэтому есть заметный риск того, что они еще незрелые. С другой стороны, хорошо, что бизнес готов подобные решения тестировать, так как для полноценного использования и широкого тиражирования нужна практика.
Как объяснил менеджер по развитию компании UserGate Иван Чернов, уровень доверия к ИИ невысок: «На сегодняшний день мы не готовы давать искусственному интеллекту право принимать решение о том, является событие инцидентом или нет, вредонос перед нами или нет, но мы уже готовы принимать его решения как помощь, а ИИ — как вспомогательную систему, которая позволяет сфокусироваться на определенных участках и подсветить какие-то моменты, которые, по мнению искусственного интеллекта, могут относиться к нелегитимной активности». Эксперт уверен: пока ИИ в киберзащите — это лишь ассистент, который может обратить внимание специалиста на какой-либо момент, а его предложения должны носить только рекомендательный характер.
Уже есть несколько ИБ-направлений, где ИИ доказал свою состоятельность как помощник. Руководитель отдела продвижения продуктов компании «Код безопасности» Павел Коростелев в их числе называет оптимизацию политики безопасности сетей, а также поиск аномалий и анализ трафика. «Это один из ключевых архитектурных подходов. В современных кораблях трюм разделен на несколько частей для того, чтобы в случае появления пробоины вода наполнила только один сегмент и не повлияла на общую жизнеспособность корабля. В случае с сетями все тоже самое: если сегментов много, то злоумышленник, проникнув в один из них, не сможет попасть в следующий. И пока он будет искать способы проникнуть дальше, вероятность выявления его действий ИБ-специалистами будет выше, а ИИ в этом поможет».
ИИ с проблемами
При этом нужно помнить, что по мере развития ИИ и конечные бизнес-потребители, и ИБ-компании будут сталкиваться с серьезным пулом проблем, пути решения которых пока только изучаются. Например, эксперт по цифровой трансформации компании «Аквариус» Александр Дмитриев отметил высокие требования к вычислительным мощностям. «У всех применений ИИ есть общее: если мы внедряем ИИ, то работаем с огромными объемами данных в разных форматах из разнообразных источников, которые надо между собой согласовывать, а система должна их обработать. Поэтому нагрузка на каналы связи, балансировка нагрузки, повышенная надежность и контроль данных, а также обеспечение безопасности этих процессов выходят на первый план, а это недешевая и сложная задача. Отсюда и новые требования к ИТ-инфраструктуре», — объясняет эксперт.
Руководитель продуктового направления компании «ИнфоТеКС» Светлана Старовойт к ресурсоемкости модели добавляет и другие проблемы. «Есть сложности с интерпретацией результатов. Даже при работе модели с точностью 99,9% остаются те данные, которые нужно интерпретировать руками — а это очень сложная задача при таком огромном объеме», — объясняет эксперт.
Также, по словам Старовойт, есть проблема с данными для обучения. Если на этапе проверки гипотезы, прототипирования можно использовать синтетические данные или из открытых источников, то для реального обучения модели нужно использовать, соответственно, только реальные данные, а ими делиться бизнес не готов.
«ИИ в любом случае должен контролироваться человеком, потому что в противном случае непонятно, кто будет нести ответственность за действия ИИ. К тому же искусственный интеллект нужно правильно обучать, чтобы он делал корректные выводы. В случае отсутствия контроля над обучением ИИ, возможно, его действия будут неправильными или даже злонамеренными. Кроме того, нужно очень четко контролировать те данные, на которых обучается искусственный интеллект», — детализирует проблему с данными и обучением Роман Пустарнаков.
И перечисленное — далеко не все проблемы, вызовы и риски, с которыми придется сталкиваться по мере развития технологии ИИ. Вице-президент, директор по работе с корпоративными заказчиками компании «Ростелеком» Алексей Подрябинников заметил, что серьезная проблема — это сама система принятия решений в корпорациях. «Мы привыкли полагаться на коллективное мнение, мнение экспертов. А теперь представьте: вы наняли человека за весь его опыт, за уроки, которые он извлек из предыдущих успешных и неуспешных проектов, а выясняется, что решение, которое он принимает, основано на рекомендациях ИИ. И ваше коллективное решение теперь чудесным образом формируется из ответов одной и той же программы, а не специалистов с уникальным опытом. И готовых рецептов для решения этой проблемы нет», — подчеркивает эксперт.
С прицелом на будущее
Однако высокая неопределенность и прогнозируемые проблемы не означают, что перспективы использования ИИ эксперты оценивают негативно. Почти каждый из выступавших на конференции экспертов признался, что тестирует или уже внедрил ИИ в решения.
Так, ведущий эксперт нефтегазовой отрасли Fplus Дмитрий Сивокоз заметил, что ИИ уже используется на Западе в платформах, которые позволяют в реальном времени собирать информацию относительно текущей добычи нефти и газа и делать прогнозы. «В России многие компании уже накопили данные, которые можно обрабатывать и анализировать, но западные платформы мы использовать не можем — нужны импортозамещающие решения, и в частности — платформа, которая позволит решать задачи в сфере ИИ и обработки данных. Такие разработки уже есть», — подчеркивает эксперт.
Заместитель генерального директора Zecurion Александр Ковалев рассказал, что в решениях компании уже используются ИИ-модели, а в новом поколении DLP-решения будут добавляться. «Мы будем тестировать и проверять, что реально работает. Мы планируем использовать ИИ для поиска аномалий, прогнозирования рисков и, что самое интересное, прогнозирования аномалий», — обещает Ковалев.