В отношении к ИИ бизнес перешел от фазы «Возможно ли?» к фазе «Зачем?», а за ней — и к решению самого сложного вопроса: кто будет отвечать, если что-то пойдет не так? Дискуссия, организованная РБК Петербург в рамках клуба Winner и посвященная ИИ, прошла без чрезмерного технооптимизма: участники говорили о ежедневных дилеммах, которые приходится решать. Например, что делать, если ИИ экономит время, но создает репутационные риски; ускоряет процесс, но подменяет мышление; кажется бесплатным, но требует скрытых инвестиций в безопасность, обучение и валидацию решений. Тем не менее, точка невозврата пройдена, главный вопрос сегодня не в том, внедрять ли ИИ, а в том, как не потерять ни данные, ни доверие, ни будущие поколения специалистов.
Культурный сдвиг
Повседневное использование ИИ уже стало нормой, при этом официальное корпоративное использование внешних моделей — скорее исключение. Доступ к ним разрешен далеко не на всех предприятиях, но до прописанного в политиках безопасности запрета дело дошло еще у меньшего количества пользователей — слишком стремительно развивалась доступность технологии, чтобы на вызов сумели среагировать. Так что зачастую сотрудники используют технологии самостоятельно — и бизнес вынужден подстраиваться под эту новую реальность.
Как отметили эксперты, сегодня ИИ распространяется не сверху вниз, как раньше внедрялись ERP-системы, а наоборот — снизу вверх, через повседневную практику сотрудников. Так что компании не выбирают, внедрять или нет — они просто вынуждены подстраиваться под реальность, которую сформировали сами люди. Это уже не обычная ИТ-инициатива, а некий масштабный культурный сдвиг.
Однако доверие к ИИ остается низким — особенно в госструктурах и критически важных отраслях. Участники дискуссии подчеркивали: ИИ воспринимается как полезный инструмент, но не как замена человеку, и это осознанный выбор в условиях роста рисков.
Иллюзия дешевизны
Один из главных мифов, с которыми столкнулся бизнес, — иллюзия дешевизны и экономичности ИИ. На первый взгляд, запрос к публичным генИИ выглядит как бесплатный сервис. Но реальность сложнее.
«Часто говорят об экономической выгоде внедрения ИИ: он повышает эффективность, сокращает затраты — в том числе на фонд оплаты труда, позволяет компенсировать нехватку кадров, — отмечает заместитель директора по ИИ-инфраструктуре Ainergy (корпорация ITG) Даниил Дзина. — Но как только вы начинаете строить ИИ-процесс в бизнесе, сразу встают вопросы: как защитить данные, где и как обучать модель, как встроить ее в существующие регламенты. Стоимость интеграции ИИ-решения внутрь периметра, создания корпоративной базы знаний, маскирования персональных данных — все это многократно превышает стоимость лицензии на внешнюю модель. ИИ дешев только до первого серьезного внедрения».
Скрытые издержки формируют новый класс рисков: обучение персонала, построение и поддержка внутренней базы знаний, информационная безопасность, юридические последствия использования генеративного контента — например, нарушение авторских прав и пр.
Осложняет ситуацию и то, что феномен ИИ-галлюцинаций уже стал системным. Юристам приходится сталкиваться с нормативными актами, которых не существует; нейросети отвечают на вопрос, который еще не задан или используют цифры, которые кажутся более яркими. Причина, по мнению экспертов, кроется в нехватке реальных данных: обучение на синтетических данных порождает замкнутый цикл искажений. И если ответ рядовому пользователю на еще не заданный вопрос можно считать курьезом, то в бизнесе это может привести к угрозе устойчивости процессов.
Время валидаторов
Участники дискуссии уверены, каким бы умным ни казался ИИ, человек обязан проверять выданные им результаты, особенно в критичных сценариях: медицине, юриспруденции, безопасности. В системе «Безопасного города» в Петербурге, например, все ИИ-сигналы проходят ручную перепроверку — и около 20% отсеиваются как ложные. В СМИ тексты, сгенерированные ИИ, проходят редактуру. В юриспруденции допустимо использовать ИИ для анализа общедоступной законодательной базы — но каждую ссылку надо проверять.
Особую озабоченность вызывает отсутствие объяснимости решений (Explainable AI). В частности, в медицине важно не только что ИИ рекомендует, но и почему. «В кардиологии, например, у врача в голове — 500 «золотых» вариантов ЭКГ, — рассказала заместитель генерального директора компании «Комфортел» Татьяна Пыч об опыте разработки ИИ-системы поддержки кардиологов. — И это только эталонные, классические паттерны, а есть еще сотни промежуточных, атипичных, «серых» случаев, когда отклонения едва уловимы, но клинически значимы. Чтобы просто удерживать этот массив в активной памяти, нужен электронный ассистент. Поэтому задача ИИ не в том, чтобы заменить врача — нужно дать ему инструмент, который ускорит работу, снизит когнитивную нагрузку и не позволит упустить редкий, но опасный сигнал. Поэтому в разработке мы изначально закладываем принцип: ИИ — не автономный диагност, а эксперт в кармане, который помогает поставить и обосновать диагноз».
Этот подход — «помощник, а не замена» — становится ключевым трендом и в других регулируемых отраслях. Там, где цена ошибки высока, ИИ перестает быть генератором ответов и превращается в систему поддержки принятия решений — с четкой зоной ответственности, объяснимыми выводами и жесткими ограничениями на автономность.
Доверие против денег
ИИ действительно может ускорить многие процессы, но будет ли продукт его труда качественным и можно ли ему доверять безоговорочно — большой вопрос, особенно с учетом того, что любою технологию рано или поздно могут использовать злоумышленники.
Директор по информационным технологиям Единого ЦУПИС Павел Капустин отметил, что в высокорегулируемых отраслях к вопросам выбора технологий относятся с большим вниманием. «Приоритет для нас — высокая доступность сервисов и качество данных. Например, во взаимодействии с клиентами ответы, подготовленные ИИ, перед отправкой проверяет специалист, в системах антифрода и клиентской верификации ИИ анализирует поведение, выявляет аномалии, но финальное решение — всегда за человеком. В наших внутренних процессах автоматизация, в том числе и с применением ИИ, дает ощутимые результаты: на текущий момент это порядка 270 FTE — примерно 1/3 нашей общей численности. В части использования ИИ моделей сотрудниками мы пошли не по пути запрещения, а по пути предоставления «управляемого» механизма нашим пользователям. Внутри контура развернута система, которая позволяет обращаться к нескольким языковым моделям, при этом она автоматически фильтрует отправляемые пользователями запросы, исключая возможность передачи чувствительной информации, ну и, конечно, пользователи перед получением доступа проходят обучение и знают что передавать можно, а что нельзя».
«Для обеспечения качества ИИ-генерируемых решений важна многоступенчатая проверка. Проверять выводы должны и люди, и другие алгоритмы, а также внешние аудиторы. Человеческий контроль необходим для интерпретации и оценки контекста, алгоритмы — для автоматического выявления ошибок, а внешний аудит — для независимой оценки и подтверждения надежности решений. Кроме того, ИИ можно и нужно тестировать заранее на добросовестность, предвзятость и слепые зоны. Для этого используются методы Security Validation, которые включают выявление атак типа poisoning и adversarial examples. Важно оценивать ИИ-системы с точки зрения возможных уязвимостей, влияющих на результаты, чтобы своевременно устранять предвзятость и ошибки», — уверен заместитель генерального директора — технический директор компании «Газинформсервис» Николай Нашивочников.
И все же пока юридическая ответственность за результаты работы лежит на человеке, использующем ИИ. Скорее всего, так будет еще минимум 5–7 лет. Но уже сейчас назревает дискуссия о «доверенном ИИ» как новой этической парадигме.
«Доверенный ИИ представляет собой новую этическую парадигму: систему, чьи решения можно объяснить, проверить и за которые можно назначить ответственного человека. Мы уже видим, как в ЕС вводят обязательную маркировку ИИ-контента, как в России формируются рабочие группы по стандартам «доверенного ИИ», и как к 2027 году этот подход перейдет в законодательную плоскость. Но технология сама по себе нейтральна — доверие рождается там, где человек остается в центре цикла: не просто как оператор, а как эксперт, способный оценить, скорректировать и принять окончательное решение. Без этого любой ИИ, даже самый точный, превращается в «черный ящик», а любая эффективность — в иллюзию. И в этом смысле доверие к ИИ – это, прежде всего, доверие к людям, которые им управляют», — уверен директор по ИИ «Группы Астра» Станислав Ежов.
Остро стоит вопрос доверия в медиаиндустрии. Здесь логично было бы маркировать ИИ-контент, чтобы люди сами решали, готовы ли они доверять и рисковать. Но хоть маркировка ИИ-контента этически правильна, она спорна в реализации. Во-первых, возникает вопрос, при какой глубине редактуры сгенерированный ИИ продукт становится продуктом труда человека и наоборот. Во-вторых, появление маркировки вызывает отторжение у целевой аудитории — потребитель уходит, не видя за продуктом человека и его эмоций и компетенций, а если бизнес теряет деньги, он будет отказываться от маркировки – но, безусловно, не от применения ИИ.
Парадокс в том, что удобство использования ИИ может компенсировать «нечеловечность» технологии. Голосовые роботы в кол-центрах уже вызывают положительные эмоции, потому что решают задачу быстро и качественно, хотя еще недавно с ними многие не хотели общаться.
В креативной сфере — другая проблема. Источники обучения многих публичных нейросетей неизвестны, поэтому отследить, нет ли в дизайне, сгенерированном ИИ, следов защищенной авторским правом работы, крайне сложно.
Куратор креативных проектов Императорского фарфорового завода Кирилл Пименов рассказал о практическом опыте использования ИИ в искусстве и о неожиданных юридических ловушках. «Мы делали коллекцию изделий с эскизами, созданными при помощи ИИ — и гордились этим. Но уже на этапе согласования лицензионного соглашения мы столкнулись с проблемой: законодательство не предусматривает авторства ИИ, а проверить, не заимствована ли генерация у конкретного художника, невозможно — разработчики сами не знают, как их модель работает «под капотом». В итоге пришлось говорить не об ИИ-авторстве, а об ИИ-референсе. Дизайнеры используют его как ускоренный поиск визуальных решений, но финальная трактовка, стилизация, смысл — всегда человеческие. ИИ — это кисть, но не художник».
К тому же со стороны представителей разных направлений креативных индустрий уже поднимается волна протестов относительно того, что их труд стал источником обучения для нейросетей — без компенсации им. Есть даже предложения по регуляторному ограничению подобных кейсов.
Источник заработка
Эксперты сошлись во мнении: Россия отстает в фундаментальных моделях, вычислительных мощностях и открытых данных. И хотя это не приговор, но как минимум повод пересмотреть стратегию и тактику в отношении развития технологии.
«Сегодня ввиду санкционных ограничений к доступу вычислительных мощностей мы имеем некоторое отставание в развитии собственных моделей, — признает эксперт Андрей Горячев. — Но у нас есть то, что востребовано за рубежом — это отраслевая экспертиза. Возьмем нефтяную отрасль: Южная Корея не имеет своих месторождений, но она заняла нишу на рынке за счет технологий, помогающих осваивать месторождения по всему миру. У нас же есть признанная экспертиза во многих отраслях — в том числе в нефтегазовой и финтехе. Ее и надо продвигать интегрируя решения LLM — на этом можно заработать».
Практика подтверждает, что такой подход работает. «К нам уже обращались более чем из 10 стран с просьбой помочь с экспертизой построения системы «Безопасный город», — рассказывает директор Санкт-Петербургского государственного казенного учреждения «Городской мониторинговый центр» (СПб ГКУ «ГМЦ») Роман Борисенко. — Это комплексное решение, включающее регламенты взаимодействия ИИ, нейросетей, операторов, дежурных служб, интеграция различных информационных систем на одной платформе. И вот такие технологии — именно комплексные — у нас действительно востребованы за рубежом. Куба, Вьетнам, Китай — все хотят не просто купить софт, а узнать, как у нас организован весь процесс».
То же самое — в атомной отрасли. «Мы строим энергоблоки за рубежом, — продолжает операционный директор по ИТ АО «Гринатом» Александр Рассомагин. — Что интересует заказчика? Не отдельные математические модели, не их точность — его интересует комплексность. Мы в Росатоме предлагаем нашим заказчикам, в том числе за рубежом, комплекс продуктов для решения их задач, например, выработка электроэнергии, цифровая зрелость и др. За счет этого наши предложения в области ИТ вполне могут конкурировать с любыми западными продуктами».
«Российские инфраструктурные решения, связанные с ИИ — особенно в части суверенных платформ, сквозного управления данными — уже сегодня вызывают интерес за рубежом. Это фактически экспорт компетенций: от проектирования защищенных архитектур до внедрения регламентов взаимодействия человек–ИИ–система. И здесь у нас есть ключевое преимущество — опыт разработки и внедрения адаптированных под условия высокой турбулентности решений, где важны не только технологическая независимость, но и готовность к гибкой настройке под заказчика. Такие проекты уже реализуются — в том числе в странах Азии и на Ближнем Востоке, — говорит директор МТС в Санкт-Петербурге и Ленинградской области Александр Соловенчук. — Наши разработки призваны не столько заместить ушедшие с российского рынка зарубежные сервисы, сколько отстроить технологический суверенитет и оцифровать различные отрасли бизнеса, помочь в автоматизации процессов с помощью ИИ. Платформы для делового общения со встроенными ИИ-ассистентами пользуются особой популярностью. Мы видим большой спрос на эти решения среди региональных компаний, желающих перевести в цифру коммуникации и оптимизировать рутину. Такие инструменты могут быть востребованы и за пределами нашей страны».
Еще одно конкурентное преимущество, о котором говорили многие спикеры, это культура сервиса. «Наши клиенты — от Лондона до Сингапура — говорят: вы отвечаете за пять минут в выходные, ваши инженеры работают 24/7, вы решаете вопрос до того, как мы успели расстроиться, — делится президент часового завода «Ракета» Дэвид Хендерсон-Стюарт. — Так что преимущество России не технологии — это культура сервиса, которая за последние годы достигла невиданных во многих странах высот. ИИ может ускорить ответ, но не создать эту культуру. Наоборот — если мы отдадим все ИИ, мы ее потеряем».
«Мы видим, что при выходе российских ИТ-решений на внешние рынки важным фактором становится уровень сервиса. Заказчики учитывают, как быстро поставщик реагирует на запросы, как поддерживает проект в сложных ситуациях, как работает с рисками. Из этого складывается комплексное решение, где решающим фактором становится не только технология, но и ее внедрение и поддержка. Именно качественная поддержка является преимуществом российских ИТ-компаний. Мы ведем проекты в разных локациях, где клиенты имеют альтернативные варианты поставщиков ИТ-услуг. При этом после взаимодействия с российскими сервисными командами они хотят сохранить этот высокий стандарт и готовы инвестировать в комплексное решение, потому что понимают, что сервис обеспечивает предсказуемость и стабильную работу решений. На глобальном рынке это конкурентное преимущество, которое сложно воспроизвести», — подтверждает Андрей Волкодав, директор по развитию Cloud ITGLOBAL.COM, корпорация ITG.
Образование на распутье
Один из самых острых вызовов — кадровый. С одной стороны, ИИ уже сейчас может заменить некоторых сотрудников, а в перспективе могут вовсе исчезнуть отдельные профессии. С другой стороны, если ИИ заменяет специалистов на ранних этапах их профессионального становления, исчезает фундамент для появления специалистов более высокой квалификации.
«На сегодняшний день генеративные модели, если сравнивать их со специалистами, находятся где-то на уровне джуна, — говорит главный врач стоматологической клиники Dental Plats Юлия Гришенина. — Они могут быть отличным помощником для молодого врача: например, мгновенно собрать актуальные данные по фармакокинетике препаратов, сопоставить симптомы с редкими патологиями, подсказать, какие исследования еще не учтены. Но если мы допустим, чтобы ИИ заменил этап формирования клинического мышления у студентов, — если перестанем требовать от них анализировать, сомневаться, задавать вопросы, — не будет ни мидлов, ни сеньоров. Будет только иллюзия компетентности: человек, который быстро находит ответ, но не понимает, как он устроен, и не в состоянии принять решение в условиях неопределенности».
Именно поэтому, считает эксперт, ключевая задача не в том, чтобы «разгрузить» начинающего врача от необходимости анализировать и искать ответы самостоятельно, а в том, чтобы дать ему инструмент, который ускорит обучение, но не отменит его. ИИ должен выполнять роль консультанта: ведь он не ведет за руку, а помогает тому, кто уже идет сам.
В ответ на такой вызов потенциально могут появиться новые варианты специалистов в дополнение к стандартным: super junior (джун со скиллами промптинга), super senior (эксперт с навыками контроля через ИИ-агентов). Правда, где и как их учить — пока неясно.
При этом промптинг, вопреки расхожему мнению, представляет собой не набор шаблонных запросов, а весьма сложный навык: в него входят формулировка задачи, синтаксис промпта, интерпретация ответа, интеграция в бизнес-процесс. Между тем, до их пор нет четкого ответа на то, нужно ли вводить промптинг как отдельный предмет, а если и нужно — то на какой стадии подготовки кадров. Большинство участников уверены: хоть этот навык и стал базовым, необходимость отдельного обучения ему отсутствует. Фундамент для умения ставить задачу, работать с информацией, думать критически может дать школа на уроках русского языка и литературы, а также физики, математики — как основа осознанного использования ИИ. Просто человеческая мысль и голос становятся интерфейсом взаимодействия с ИИ.