Новая волна развития технологий искусственного интеллекта и low-code-платформ заставляет пересматривать подходы к их применению. Результаты генерации кода все сильнее зависят от качества исходных данных и доступности единого семантического слоя, понятного как человеку, так и ИИ-агенту. О создании прозрачных и доверенных систем с учетом этих факторов рассказал Павел Дударин, технический директор центра разработки платформы «Планета.» IBS.
Сейчас развитие платформ low-code идет по сценарию, который совсем не похож на тот, что был раньше. Первая волна эволюции этого подхода к разработке началась еще в 1995 году. Тогда возникла необходимость вовлекать отраслевых бизнес-аналитиков в создание и внедрение ПО. При этом компании испытывали трудности из-за нехватки и высокой стоимости найма разработчиков. Эти факторы запустили переход на платформы low-code, которые вошли в тренд на фоне размытия границ между бизнес-приложениями и потребности в высоком уровне их взаимной интеграции.
В 2015 году началась вторая волна — золотой век классического low-code, который становился все более популярным и распространенным, но с появлением ChatGPT в ноябре 2022 года ситуация резко изменилась. Уже тогда появились первые опыты генерации кода с помощью ИИ и стало ясно, что многие задачи больше не требуют специализированного ПО: искусственный интеллект может решать их напрямую.
Сейчас уже можно с уверенностью сказать, что началась третья волна. На этом этапе доля классического low-code снижается, в то время как быстро набирают популярность большие языковые модели и ИИ-агенты, ускоряющие разработку прототипов в полтора-два раза. По данным Gartner и McKinsey, в 2025 году уже 78% компаний использовали генеративный искусственный интеллект, а к 2030 году их доля превысит 85%.
В новых условиях теряют актуальность привычные инструменты low-code. Становятся менее востребованными визуальные конструкторы интерфейсов, ведь ИИ может добавлять нужные компоненты по текстовым описаниям. Уже не так нужны и рабочие среды с большими наборами функций в меню: их заменяет общение с нейросетью на естественном языке. Также нивелируются преимущества от применения единой экосистемы одного вендора, поскольку ИИ может интегрировать разрозненные инструменты без жесткой привязки.
Третья волна эволюции low-code принесла как новые возможности, так и новые вызовы. Ускоряя процессы с помощью ИИ, команды генерируют огромное количество кода гораздо быстрее, чем успевают тестировать. Формулирование и проверка требований также отстают от темпов разработки, что приводит к эффекту «бутылочного горлышка».
Ускорение процессов на базе ИИ-инструментов создает парадокс: экономия на ранних этапах оборачивается потерей гораздо большего времени на переделки. В результате общая скорость создания ПО оказывается в среднем в полтора раза ниже, чем при традиционных подходах. По данным McKinsey и Gartner, экономия 5–7 месяцев на разработке может обернуться 12–18 месяцами переделок. При опоре на ИИ компании тратят 40% усилий на исправления, которых можно было избежать, при этом издержки на сопровождение втрое превышают стоимость разработки.
В отчетах Gartner 2026 года этот парадокс назвали критическим риском и предсказали, что он может спровоцировать кризис качества программного обеспечения. В условиях ИИ-разработки технический долг растет по экспоненте, а точка невозврата может наступить уже через год. Последствия для бизнеса очевидны: финансовые потери, упущенные возможности, штрафы, повышенные вероятности аварий, простоев и потери лицензий.
Все эти вызовы объединяет общая проблема — снижение уверенности в качестве кода и результатах его работы, поэтому доверие к исходным данным становится особенно важным конкурентным преимуществом. На этом фоне новая роль low-code-платформ — стать фундаментом для доверенных AI-native-систем.
Для построения прозрачной доверенной системы важно создать единый семантический слой. Эта промежуточная логическая модель интерпретирует и преобразует данные так, чтобы они были понятны человеку и ИИ-агенту. Два года назад такой подход был конкурентным преимуществом Palantir, а теперь его используют все крупные западные платформы от Snowflake и Databricks до Microsoft и Google.
Семантический слой стал критической инфраструктурой для ИИ-агентов, ведь именно он определяет, насколько хорошо искусственный интеллект понимает процессы в компании. Эта модель переводит сложные технические структуры баз данных в прозрачные бизнес-метрики, создавая единую версию истины, с которой работают все приложения.
Единый семантический слой объединяет операционную, аналитическую и процессную модели. В результате учетные системы, BI-инструменты и ИИ-агенты работают без конфликтов и рассинхронизации. При этом есть потенциал распространения архитектуры на новые направления, например на онтологические или специальные модели для описания временных рядов.
В рамках операционной модели семантический слой охватывает мастер-данные: реестры клиентов, справочники продуктов и эталонные записи. В рамках аналитической — OLAP-кубы: таблицы фактов, измерения, агрегации и расчетные метрики для BI-инструментов. В рамках процессной модели семантический слой работает с бизнес-процессами, в том числе правилами расчетов, картами решений и автоматизацией. Эти задачи могут решаться привычными способами или через ИИ-агентов.
При выборе традиционного подхода к управлению данными компании разрабатывают операционную, аналитическую и процессную модели по отдельности. Из-за этого возникают три истины, три базы данных, три команды и три проблемы с синхронизацией. По данным исследований, на согласование таких противоречий уходит в среднем 40–60% ИТ-бюджетов. Без семантического слоя SQL-запросы перегружают OLTP-системы, разные команды рассчитывают одни и те же метрики по-разному, доступ к чувствительным данным не контролируется должным образом, а ИИ-агенты не понимают контекст и выдают технически правильные, но некорректные с точки зрения бизнеса ответы.
Применение архитектуры Data Lakehouse не выглядит как оптимальное решение всех этих проблем. Во-первых, без должного регулирования озера необработанных данных слишком быстро разрастаются. Во-вторых, ограниченные возможности настройки безопасности и неявные ограничения доступа могут привести к разным результатам при одинаковых запросах. В-третьих, бесконтрольный поток SQL-запросов приводит к хаосу в масштабе всего бизнеса, даже если отдельные запросы выглядят просто. Эти факторы повышают риск галлюцинаций ИИ.
Применение единого семантического слоя позволяет избежать этих проблем и с большей вероятностью получать корректные выводы. Он выдает унифицированные модели данных с валидацией, правилами доступа и контролем. При этом метаданные и правила проверки способствуют поддержанию порядка. Еще одно преимущество — тонкая настройка прав доступа для бизнес-пользователей. Наконец, при выборе этой архитектуры SQL-запросы генерирует ядро, а не человек или ИИ, что критически важно для эффективного управления качеством.
Преимущества автоматизации на базе ИИ-агентов и единого семантического слоя хорошо видны на примере финансового планирования и бюджетирования. Этот процесс есть в любой компании, и его можно выстроить, используя разные подходы. В простейшем случае каждый отдел сводит свои файлы Excel и отправляет их на многоступенчатое согласование. Потом план-факт отчета выстраивают через формулы и сводные таблицы с учетом программных ограничений. Это максимально гибкая, но вместе с тем максимально хаотичная механика. На каждом этапе цепочки присутствует человеческий фактор, который влияет на эффективность процесса, а в итоговый план-факт попадают ошибки и опечатки.
Классическая схема автоматизации сделает финансовое планирование и бюджетирование упорядоченными, точными, но лишенными гибкости, ведь любые перестройки процесса потребуют изменения кода. В рамках этого подхода формы ввода для справочников, плановых показателей и макропараметров попадают в базу данных. Потом ПО моделирует несколько возможных сценариев, которые переходят на согласование в BPM-систему. Сбор факта на финальном этапе жестко формализован, и на выходе формируется точная унифицированная отчетность, которую каждый специалист дорабатывает под свои нужды.
Автоматизация на базе ИИ позволит выстроить альтернативную архитектуру того же процесса. Ее конкретные очертания определятся в ближайший год или полтора, но главные принципы, преимущества и риски видны уже сейчас. Основными блоками в такой архитектуре станут классические формы ввода и парсеры или интеллектуальные агенты. В любом случае их можно получить в результате генерации. Все эти блоки будут взаимодействовать с единым семантическим слоем, который придет на смену прямому доступу к БД.
Эта альтернатива даст пять ключевых преимуществ по сравнению с привычными подходами:
Остается актуальным вопрос доверия к новой архитектуре, ведь за сгенерированными приложениями не будут стоять репутация вендора, история применения и доказательства эффективности, проверенные временем. Однако эту сложность можно решить, грамотно управляя рисками. В частности, можно закрепить за человеком критически важные этапы, добавить процессы валидации и контроля.
Новый подход можно использовать в разных отраслях для решения широкого круга задач. Например, в пищевой промышленности и сельском хозяйстве он подойдет для прогнозирования спроса, оптимизации производства, управления складскими запасами и логистикой. В розничной торговле и электронной коммерции новая архитектура справится с управлением ассортиментными матрицами, мониторингом выполнения планов продаж и KPI. В области здравоохранения по тому же шаблону можно выстроить планирование загрузки медицинского персонала и ресурсов, управление закупками медикаментов и расходных материалов, мониторинг клинических показателей и качества лечения.
Это далеко не все перспективные сферы, в которых может принести пользу управление данными на базе ИИ-агентов и единого семантического слоя. Возможности применения этой архитектуры безграничны — остается лишь их использовать.