3 600 000 ₽ в год. Столько ваша команда из 10 BPM-аналитиков прямо сейчас сжигает на задачах, которые Storm BPMN с AI делает за минуты. Это не оценка с потолка — это сложение по семи рутинным операциям, которые мы разбираем ниже. Подставьте свои ставки и свои объёмы — экономия только вырастет.
А ещё каждый ваш бухгалтер, юрист, эйчар, менеджер и кладовщик может получить личного AI-консультанта по своей зоне ответственности. Не общего корпоративного, который путает ваши процессы с чужими. Свой — заточенный именно под его роль и его права в системе. Без обучения, без RAG, без отдельной ML-команды.
И здесь самое интересное. Принесите ваши данные в любом виде — выгрузки из Business Studio, ARIS, Camunda, Bizagi, BPMN-файлы, Excel с оргструктурой, выгрузки из 1С, AD, Confluence, любую кашу из текущих систем. Storm импортирует это за неделю, ваша команда наводит порядок ещё за неделю — и через две недели у каждого сотрудника есть AI-консультант по его процессам. Это и есть реальная цифровизация. Не «опишем компанию с нуля за три года» — а «соберём то, что уже есть, и сразу запустим AI поверх».
Каждую неделю на демо нам говорят: «Мы сами подключим ChatGPT к нашей BPM-системе за неделю». Не подключите. Ниже — честный TCO собственной разработки (~10–13 млн ₽ и 8–12 месяцев ожидания, потому что вокруг самих LLM-вызовов нужно построить портал, права доступа, токенерацию, инфру и защиту) и почему путь «обучим свою модель» закрыт даже для Сбера и Яндекса. Эта статья отвечает на оба вопроса: сколько вы экономите с нами — и сколько потеряете, если попытаетесь сделать самим.
Семь задач, на которых вы экономите
Все цифры — на одну диаграмму или одно действие. Умножьте на свои объёмы. Ставки часа — нижняя граница рынка РФ:
- BPM-аналитик — 1 500 ₽/час (зарплата 250 тыс ₽/мес ÷ 168 ч);
- Технический писатель — 1 500 ₽/час;
- BPM-коуч / внешний консультант — 5 000 ₽/час (реально 7–15 тыс);
- Дата-аналитик — 2 500 ₽/час.
Объём работы — типичная зрелая команда: 10 аналитиков, 100 диаграмм в год. Ваши цифры подставите в конце.
| Задача | Раньше | С AI Storm BPMN | Экономия |
|---|---|---|---|
| 1. Нарисовать процесс с нуля | 30 мин черчения = 750 ₽ | 30 сек на промпт = 13 ₽ | ~98% времени, 737 ₽ |
| 2. Описать каждую задачу в диаграмме (~30 шт.) | 5 мин × 30 = 2,5 ч = 3 750 ₽ | 1 сек × 30 ≈ 13 ₽ | ~99% времени, 3 737 ₽ |
| 3. Ревью качества BPMN (правильные шлюзы, anti-patterns) | 1,5 ч у коуча = 7 500 ₽ | 30 сек = 13 ₽ | ~99% времени, 7 487 ₽ |
| 4. Написать раздел регламента по диаграмме | 3 ч у тех. писателя = 4 500 ₽ | 1 мин = 25 ₽ | ~99% времени, 4 475 ₽ |
| 5. Доработать диаграмму через неделю (вспомнить контекст + правки) | 40 мин = 1 000 ₽ | 2 мин голосом через Claude = 50 ₽ | ~95% времени, 950 ₽ |
| 6. Разобрать результаты опроса участников процесса | 1–2 рабочих дня дата-аналитика = 20 000–40 000 ₽ | 5 мин AI-анализа = ~200 ₽ | ~99% времени, 19 800–39 800 ₽ |
| 7. Личный AI-консультант каждому сотруднику ⭐ ГЛАВНОЕ | Внутренний методолог: ~7–10 млн ₽/год на команду 200 человек. Или корпоративный RAG, который в 30% случаев врёт. | В подписке Storm + ваш Claude/GPT: ~120 тыс ₽/мес на всю компанию | Покрытие каждого участника процессов, а не только аналитиков |
Семь задач, на которых Storm BPMN экономит ваши деньги. Цифры — нижняя граница, в реальности больше
Итог по одной диаграмме. Шесть первых задач без AI стоят ~37 500 ₽ и съедают ~9 часов работы. С AI Storm BPMN — ~315 ₽ и ~10 минут. Экономия на каждой диаграмме — около 37 200 ₽.
Итог по году на команду из 10 аналитиков и 100 диаграмм. Без AI — около 3,7 млн ₽ на одних только рутинных операциях. С Storm BPMN — ~30 тыс ₽. Экономия — порядка 3,6 млн ₽ в год. И это без седьмой задачи (личный AI каждому сотруднику), которую без MCP воспроизвести в принципе невозможно.
Как именно вы экономите. По задачам.
Если коротко — три вещи: AI прямо в редакторе, MCP-сервер для Claude и интеграция со справочниками вашей компании. Подробнее по каждой задаче — ниже.
Задача 1. Нарисовать процесс с нуля
Самая частая операция аналитика и самая «механическая». Вы знаете, как должен идти процесс — но руки тратят полчаса, чтобы натащить на холст события, задачи, шлюзы, стрелки и аккуратно их выровнять.
В Storm аналитик описывает процесс одним абзацем, нажимает кнопку «AI» — получает готовую диаграмму с задачами, шлюзами и потоком управления. Дальше правит её мышкой как обычно.
Что заменили: 30 минут черчения по событиям, шлюзам и стрелкам.
Что осталось аналитику: подумать над логикой и поправить детали.
Где не подменяет. Сложные сквозные процессы с десятком пулов и двадцатью шлюзами AI рисует приблизительно — финальную доработку всё равно делает человек. Но 80% диаграмм в типичной компании — это локальные процессы отдела на 10–15 элементов. Их AI собирает с одного захода.
Задача 2. Описать каждую задачу в диаграмме
В свойствах любой задачи — иконка «AI». Один клик — описание задачи генерируется на основе соседних элементов, исполнителя, привязанных систем и документов. На диаграмму с 30 задачами уходят секунды вместо двух с половиной часов.
Почему это работает корректно: AI получает не вопрос «опиши задачу», а структурированный контекст — кто исполняет, какие системы используются, что было до и после. Описания не выдумываются.
Задача 3. Ревью качества BPMN
BPMN — формальная нотация, и на ней легко наделать тонких ошибок. Перепутали XOR с inclusive gateway. Поставили событие там, где должна быть задача. Не обозначили end event. Не разнесли участников по пулам. Перегрузили одну диаграмму вместо разбивки на подпроцессы.
Раньше эти ошибки ловил внешний BPM-коуч (5 000 ₽/час и выше) или внутренний методолог. Они смотрели диаграмму и говорили, где anti-pattern. На команду из 10 аналитиков и 100 диаграмм в год это 100–150 часов экспертного времени = 500–750 тыс ₽/год — плюс задержки на согласование графика коуча.
Теперь — панель «AI-анализ» в редакторе делает то же самое за 30 секунд: BPMN-нарушения, anti-patterns, рекомендации с typewriter-эффектом, как в ChatGPT. Каждый аналитик гоняет анализ на каждой своей диаграмме перед коммитом — и приходит к коучу уже с чистой моделью, только за нюансами.
Внешнего эксперта вы зовёте раз в месяц, а не на каждую диаграмму. Качество моделей по команде растёт, потому что ревью теперь сплошное, а не точечное.
Задача 4. Регламент по диаграмме
Кнопка «Сгенерировать описание» — и вы получаете текст процесса на русском со структурой пулы → события → шаги. Не выдумывает — берёт строго из графа диаграммы.
Раздел регламента, на который технический писатель тратил 3 часа за 4 500 ₽, готов за минуту. Дальше — вычитка и стилевые правки.
Задача 5. Доработка диаграммы через неделю — голосом из Claude
Это уже про MCP-сервер. Самый частый сценарий после первого запуска процесса — приходят правки. Передумали с ветками. Появилась новая роль. Решили добавить SLA. Раньше каждая такая правка — это:
- Открыть Storm, найти нужную диаграмму;
- Вспомнить контекст — что мы здесь нарисовали неделю назад;
- Воспроизвести логику правки руками;
- Проверить, не сломалось ли соседнее.
40 минут на одну правку, и таких правок десятки в неделю.
В Storm аналитик подключает свой Claude Desktop одним конфиг-файлом — и через неделю просто говорит:
«Открой процесс согласования закупки и добавь ветку для повторного рассмотрения при отклонении. Финдир должен пересогласовать в течение трёх рабочих дней».
Claude помнит контекст вашей компании (роли, системы, ваши предыдущие правки), правит диаграмму прямо в Storm, выдаёт ссылку. На правку — 2 минуты вместо 40.
Это и есть вайб-аналитика — такой же сдвиг, как «вайб-кодинг» у программистов в 2024-м, когда они перестали писать код руками. Аналитики получили то же самое сейчас.
Задача 6. Разобрать результаты опросов по процессам
В Storm BPMN встроены опросы участников процесса — отдельная фича, не файлы, не сторонние SurveyMonkey. Аналитик прикрепляет опрос к процессу, выбирает респондентов (по ролям, командам или конкретным людям), задаёт вопросы — Storm рассылает приглашения. Респонденты проходят опрос прямо в продукте, ответы анонимизируются, копятся в БД.
Раньше после закрытия опроса начиналась рутина: выгрузить CSV, свести в Excel, посчитать средние, прочитать сотни открытых ответов, найти повторяющиеся жалобы, скомпоновать выводы. На 50 респондентов — 1–2 рабочих дня дата-аналитика. На 500 — три-четыре дня.
В Storm одна кнопка «AI-анализ» делает то же за пять минут. Под капотом — OpenAI Assistants API + Code Interpreter: AI сам пишет Python-код, считает статистику, выделяет кластеры открытых ответов, формулирует выводы. На выходе — структурированный отчёт: тренды, проблемные зоны, конкретные цитаты респондентов (с возможностью деанонимизации, если права позволяют).
Качество анализа часто выше человеческого: AI ловит паттерны в открытых ответах, которые глаз пропускает, и не устаёт к 200-й анкете.
Кейс. Запустили опрос «Как вам новый процесс согласования закупок?» среди 80 участников. Через две недели опрос закрылся. Вместо двух дней работы дата-аналитика — пять минут на AI-анализ, и у вас на столе записка для руководства: «80% жалоб — на третий шаг согласования (финдир), среднее время прохождения 4,2 дня, главные предложения — добавить SLA и вернуть авто-согласование сумм до 50 тыс».
Промежуточная врезка: что Storm уже знает про вашу компанию
Прежде чем перейти к задаче 7 — короткая остановка, чтобы было понятно, на чём держится «персональный AI-консультант».
Когда вы аккуратно работаете в Storm BPMN, в системе постепенно накапливается структурированная модель вашей компании:
- Оргструктура — кто кому подчиняется, кто за что отвечает, кто на каких позициях.
- Роли (assignee) — какие функции есть в компании и кто их выполняет.
- Активы — IT-системы, документы, источники данных, контрагенты, оборудование.
- Процессы — что и как делается, в какой последовательности, какие шлюзы и события.
- Связи всего со всем — какая роль выполняет какую задачу в каком процессе, какие документы и системы там используются.
- Кастомные поля — SLA, длительность, стоимость, KPI и любая ваша специфика.
- Права и зоны ответственности — кто что видит и редактирует.
Это уже накопленный труд. Без AI оно работало как справочник: открыл реестр, нашёл нужное, прочитал. С AI — то же знание превращается в ответы на вопросы каждого сотрудника. AI не угадывает и не ищет в похожих текстах — он проходит по конкретным связям модели.
Чем точнее модель — тем точнее AI. Это работает в обе стороны: наличие AI стимулирует поддерживать модель в актуальном состоянии, потому что выгода от каждого заполненного поля становится мгновенной. Каждое назначение роли, каждая привязка системы — это +1 точный ответ для каждого сотрудника, у которого есть Claude или Cursor с MCP-доступом.
«У нас в Storm пока пусто» — это решается за пару недель
Ожидаемое возражение: «AI-консультант хорош, но у нас в Storm ничего не описано. Вручную набивать оргструктуру и сотни процессов — займёт год».
Не займёт. Принесите ваши данные в форматах, в которых они у вас уже есть:
- Business Studio — самый частый кейс миграции у нас. BPMN-выгрузка (BPMN 2.0 XML) импортируется напрямую. Оргструктура и реестры — через CSV-экспорт из Business Studio в стандартные таблицы. Регламенты, выгруженные в HTML-навигатор, разбираются и переводятся в нативные карточки Storm. По нашему опыту — типичная миграция средней инсталляции Business Studio (200–500 процессов) занимает 2–4 недели.
- BPMN-файлы из любых редакторов — Camunda Modeler, Bizagi, Signavio, bpmn.io, ELMA, ARIS-выгрузки. BPMN 2.0 — открытый стандарт, Storm читает его как родной.
- Excel и CSV — оргструктура, штатное расписание, реестр ролей, список IT-систем, перечень документов, реестр процессов. Один клик — данные в Storm.
- Выгрузки из текущих BPM-систем и корпоративных порталов — Confluence, 1С, AD/LDAP для оргструктуры. Что выгружается в табличный или XML-вид — затягивается.
- API — если данные живут в вашей внутренней системе и обновляются регулярно, синхронизация делается через REST-эндпоинты Storm.
- Архивные регламенты в Word и PDF — на этапе пилота загружаются как описания процессов или как привязанные документы. Дальше AI помогает превратить их в нормальные BPMN-модели.
Типичный сценарий внедрения для средней компании:
- Неделя 1. Импорт оргструктуры из Excel или AD, импорт реестра систем и документов, перенос 20–50 ключевых процессов из существующих BPMN-файлов. Настройка прав и команд.
- Неделя 2. Команда аналитиков пробегает по импортированным моделям, проставляет недостающие роли через AI-подсказки, привязывает активы. Запускается AI-генерация описаний для всех задач разом.
- Через 2 недели. Каждый сотрудник получает MCP-ключ. С первого дня — рабочий AI-консультант по своей зоне ответственности.
Это не годовой проект «опишем компанию с нуля». Это две недели от запуска до работающего AI-консультанта для всей компании — на тех данных, которые у вас уже есть. Просто разбросаны по Excel, Confluence, ARIS и головам ведущих специалистов.
И вот это — реальная цифровизация. Не «купили лицензии и три года будем заполнять модели вручную», а «принесли всё что есть, AI помог собрать в систему, через две недели вся компания работает с персональным AI-помощником». В этом смысле Storm — не просто BPM-инструмент, а мост между "что у нас есть в разрозненных файлах" и "AI-консультант для каждого сотрудника".
Если у вас есть Business Studio, ARIS, ELMA, Camunda, Bizagi или просто папка с Excel и Visio — приносите. На демо посмотрим вместе и оценим, сколько займёт миграция конкретно у вас.
Главное: личный AI-консультант для каждого вашего сотрудника
Это самая большая задача из семи и, возможно, главная причина читать всю статью. Самое важное про MCP: это не AI для аналитиков. И это не один AI на всю компанию. Это персональный консультант для каждого сотрудника, который участвует в процессах вашей компании — менеджера, бухгалтера, юриста, эйчара, кладовщика, IT-шника, руководителя отдела.
И главный фокус — он отвечает строго в рамках его зоны ответственности, потому что в Storm вы уже описали кто за что отвечает: роли, процессы, документы, системы.
Как это выглядит в жизни
- Маша из бухгалтерии спрашивает свой Claude: «Какой у меня процесс согласования счёта от 100 тысяч? Кому я его передаю дальше?» Claude через MCP видит только её роли и её участки процессов — отвечает точно: «Передаёте финдиру через 1С, после согласования возвращается вам для проводки». Без галлюцинаций про чужие процессы.
- Вася из юр. отдела спрашивает: «Я согласовываю договор закупки больше 500к — что мне нужно проверить?» Claude видит регламент, привязанный к его шагу процесса, видит чек-лист, видит ссылки на шаблоны.
- Петя — менеджер, новый сотрудник: «Я хочу заказать ноутбук, как мне это сделать?» Claude знает процесс «Заявка на технику», знает что Петя не вправе ставить assignee на финдира, и подсказывает шаги его части процесса.
- Ольга — методолог процессного офиса с правами на всю компанию. Её Claude видит все процессы и помогает находить дубликаты, несоответствия, точки оптимизации.
Один сервис — и каждый получает консультанта, заточенного под его роль и его права. Не нужно покупать отдельные «AI-копилоты для отдела закупок», «AI-копилоты для HR» — Storm BPMN автоматически становится таким для каждого, кто к нему подключён.
Чем это отличается от корпоративного RAG
Многие компании пытаются решить ту же задачу через «индексируем все документы и накроем поверх RAG». Это плохо работает, и вот почему.
| Аспект | Тупой корпоративный RAG | Storm BPMN + MCP |
|---|---|---|
| Источник знаний | Indexed documents — Wiki, PDF, Confluence | Структурированная модель процессов: роли, потоки, артефакты |
| Что видит каждый сотрудник | Всё, что не закрыто правами на документы (а закрыто обычно плохо) | Только свой scope ответственности — в точности как в Storm |
| Точность ответа | Зависит от качества разметки и эмбеддингов; 30%+ галлюцинаций | AI отвечает по графу процесса, а не по похожим текстам |
| Что говорит на «как у меня устроено?» | Выдаёт куски регламентов, иногда устаревших | Чётко: вот ваш процесс, ваша роль, ваши действия |
| Кому нужен на поддержке | ML-команда + DevOps на векторную БД | Никто — это часть подписки |
Storm + MCP против классического RAG
RAG — это поиск по похожим текстам. Storm + MCP — это AI, у которого есть модель вашей компании: кто что делает, кому передаёт, чем пользуется. Поэтому когда Маша спрашивает «Что мне делать?» — Claude отвечает не по обрывкам PDF, а по конкретным шагам процесса, в которых Маша участвует.
Кого вы заменяете и сколько это стоит
В обычной компании эту функцию выполняют несколько ролей:
- Методолог / BPM-офис — отвечает на вопросы «как у нас устроено», поддерживает единообразие, инструктирует новых сотрудников.
- Ведущий специалист отдела — отвечает на вопросы коллег, потому что «знает все ходы».
- HR-онбординг — недели погружения нового сотрудника в процессы.
- Корпоративный портал / wiki — куда складывают регламенты в надежде, что кто-то это прочитает.
Считаем верхушку: один методолог — ~250–400 тыс ₽/мес ФОТ. На команду 200 человек обычно нужны 2–3 методолога, итого ~7–10 млн ₽/год. И всё равно: они физически не успевают отвечать на все вопросы, регламенты копятся в стол, новые сотрудники въезжают неделями.
С MCP методолог не исчезает — но переключается с рутинных консультаций на улучшение моделей. Линейные вопросы (а их 60–70%) закрывает Claude каждого сотрудника. Освободившееся время методолог тратит на более глубокие модели — что в свою очередь делает AI ещё умнее. Это положительная обратная связь.
Дополнительный эффект — скорость онбординга. Новый сотрудник в первый день получает Claude с MCP-ключом и областью ответственности, и сам быстро спрашивает «как у нас устроено». Это сокращает первые две недели ввода в курс дела до 2–3 дней.
Сколько это стоит у нас
Storm — фиксированная подписка, без скрытых платежей за токены. Сам MCP-сервер входит в персональную подписку (бесплатную) и выше — отдельной оплаты нет.
LLM (Claude, ChatGPT, Llama, GigaChat, YandexGPT) вы выбираете и оплачиваете напрямую провайдеру — без наших наценок и без нашей маржи. Мы не делаем деньги на ваших токенах.
На команду из 50 пользователей это около 150 000 руб/мес на Claude Team — меньше зарплаты одного аналитика. На локальной Llama в private cloud — только цена железа и поддержки, которое у вас и так есть.
MCP-сервер уровня Storm пока редкость среди корпоративных BPM-инструментов на рынке РФ. Если вы рассматриваете другие платформы — спросите у вендора, дают ли они доступ к процессам через MCP-протокол и под per-user-ключи. По нашему опыту, эту функциональность чаще обещают на будущее, чем показывают в продакшене.
Аргументы для разных ролей в комитете закупки
Если вы готовите обоснование внутри компании — вот короткие тезисы под каждого участника решения.
| Роль | Что важно | Главный аргумент |
|---|---|---|
| CFO / финансовый директор | Прозрачность бюджета, окупаемость, никаких сюрпризов | Подписка фиксированная, без оплаты токенов с нашей стороны. Окупаемость — 1–2 месяца только на рутине BPM-команды. На команду 200 чел. — потенциальная экономия 7–10 млн ₽/год за счёт сокращения нагрузки на методологов и ускорения онбординга. |
| CIO / ИТ-директор | Безопасность, on-prem, контроль над данными | Enterprise-поставка с собственной LLM (OpenAI Enterprise, Anthropic, Llama, GigaChat, YandexGPT). Storm обращается к LLM по HTTP-эндпоинту в админке — никаких внешних запросов. MCP-ключи наследуют права пользователей в системе. |
| Руководитель BPM-офиса / процессного управления | Скорость и качество работы команды, единообразие моделей | Команда успевает в 3–5 раз больше при том же ФОТ. Сплошное AI-ревью повышает качество всех моделей, а не только тех, что попали к коучу. Опросы по процессам разбираются за минуты вместо дней. |
| HR-директор / руководитель обучения | Время онбординга, нагрузка на менторов | Новый сотрудник получает личного AI-консультанта по своей роли с первого дня. Время «въезжания» сокращается с двух недель до 2–3 дней. Менторы освобождены от рутинных «как у нас устроено». |
| CEO / собственник | Конкурентное преимущество, скорость изменений | Каждая правка процесса — голосом за минуты, а не неделями согласований. Конкуренты, которые подключают AI сейчас, обгоняют вас в скорости изменений на полгода. Промедление — главный риск, а не выбор вендора. |
Краткий cheat-sheet для внутреннего обоснования закупки
В облаке всё работает. В enterprise — со своей моделью
Для службы безопасности — короткий ответ.
Облако. Все семь задач решаются сразу после регистрации, AI входит в подписку TEAM (MCP доступен в бесплатном тарифе) и выше. Модель выбрана и оттестирована нами, лимиты — на стороне сервиса. Вам не нужно покупать API-ключ OpenAI, не нужно следить за тарификацией токенов, не нужно настраивать ничего. Используем business-тарифы провайдеров — данные не идут в обучение моделей.
Enterprise. Если служба безопасности не выпускает данные за периметр — приносите свою модель. OpenAI Enterprise, Anthropic, локальная Llama, GigaChat, YandexGPT — любая, совместимая с OpenAI Chat Completions API. Переключение — без релиза, через настройки. Промпты остаются нашими (вылизанными), модель — вашей.
В enterprise-поставке AI-модуль лицензируется отдельно от основной подписки на Storm BPMN — за условиями свяжитесь с продажами, всё расскажем.
То есть вы получаете нашу AI-логику и контроль за вашими данными — одновременно.
Почему «мы сами подключим ChatGPT» — самая дорогая ошибка года
Это ответ на исходный вопрос с демо. Часто за «сами подключим» стоит одно из двух:
- «Возьмём готовую LLM и встроим её в наш текущий BPM-инструмент» — сценарий А.
- «Обучим свою модель, чтобы данные не утекали» — сценарий Б.
Считаем оба честно.
Сценарий А. Своя интеграция с готовыми моделями
Берёте готовую LLM (OpenAI, Anthropic, GigaChat) и встраиваете её в свой инструмент. На бумаге звучит как «несколько API-вызовов и UI-кнопка». На практике — это полноценный продуктовый проект на полгода, потому что вокруг самих вызовов LLM нужно построить целую инфраструктуру.
Что входит в полный объём работ — кроме самих AI-эндпоинтов:
- Портал управления для пользователей и админов — выпуск/отзыв ключей, история использования, лимиты, аудит-лог.
- Встройка в существующий инструмент— рефакторинг текущих сервисов так, чтобы AI имел доступ к процессам, ролям, активам и оргструктуре через стабильное API.
- Права доступа и наследование scope — каждый AI-запрос должен идти от имени конкретного пользователя и видеть только то, что пользователю разрешено. Без этого AI-помощник перестаёт быть персональным.
- Инфра — деплой, мониторинг, secret store для API-ключей провайдеров, отказоустойчивость, SLA.
- Токенерация — выпуск, ротация и шифрование per-user API-ключей, защита от утечек, отзыв при компрометации.
- Подъём локальных моделей (если хотите on-prem) — Ollama / vLLM / TGI, GPU-конфигурация, обновления весов, fallback на облако.
- Защита от типовых атак — prompt injection, prompt-leak, rate-limiting, sanitization выхода, контроль стоимости.
Допущения по ставкам— нижняя граница рынка РФ:
- Senior backend / frontend — 350 000 ₽/мес;
- Senior prompt-engineer — 400 000 ₽/мес;
- DevOps — 350 000 ₽/мес;
- QA-инженер — 250 000 ₽/мес.
| Компонент | Команда | Чел-мес | Стоимость |
|---|---|---|---|
| Backend AI-эндпоинты + встройка в существующий BPM (доступ к диаграммам, реестру, оргструктуре) | 1 senior backend | 5 | 1 750 000 ₽ |
| Frontend AI-UX (real-time UX, typewriter, лимиты, обработка ошибок) + портал управления ключами и квотами | 1 senior frontend | 4 | 1 400 000 ₽ |
| Промптинг и тюнинг (5+ системных промптов, тесты на корпусе диаграмм, антигаллюцинации) | 1 prompt-engineer | 4 | 1 600 000 ₽ |
| OpenAI Assistants API для анализа опросов (polling, статусы, cleanup) | 0,5 senior backend | 1,5 | 525 000 ₽ |
| MCP-сервер: реализация протокола, per-user-ключи, 40+ инструментов | 1 senior backend | 3 | 1 050 000 ₽ |
| Права доступа и scope-фильтрация в каждой AI-операции (RBAC, аудит-логи, наследование от пользователя) | 0,5 senior backend | 2 | 700 000 ₽ |
| Токенерация (выпуск, шифрование, ротация, отзыв ключей), биллинг, квоты по тарифам | 0,5 backend | 1,5 | 525 000 ₽ |
| Инфра: деплой, мониторинг, secret store, SLA, отказоустойчивость, кеширование | 1 DevOps | 3 | 1 050 000 ₽ |
| On-prem LLM (если нужно): подъём Ollama/vLLM, GPU-конфигурация, обновления, fallback на облако | 0,5 ML/DevOps | 2 | 700 000 ₽ |
| Защита: rate-limiting, контроль стоимости токенов, защита от prompt injection и leak, sanitization выхода | 0,5 senior backend | 1 | 350 000 ₽ |
| QA / regress-тесты для AI-выходов (golden-set, тесты при смене модели, нагрузочное) | 1 QA | 3 | 750 000 ₽ |
| Итого разработка | ~30 чел-мес | ~10 400 000 ₽ |
Полная стоимость своей разработки до уровня Storm BPMN. Включает портал, встройку, RBAC, инфру, токенерацию, защиту и on-prem-LLM
И это всё ещё нижняя граница. Без расходов на:
- Менеджмент проекта (тимлид, продукт-менеджер) — обычно +20% к ФОТ команды;
- Постоянное переобучение промптов под новые версии моделей;
- Поддержку и развитие после запуска — это уже не разовая разработка, а отдельная команда.
Time-to-market — 8–12 месяцев параллельно командой из 4–5 человек. С Storm BPMN — сегодня.
Скрытая стоимость задержки. 8 месяцев без AI ваша команда из 10 аналитиков продолжает терять ~2,4 млн ₽ на рутинных задачах. На команду 50 аналитиков — ~12 млн ₽ за период разработки. Прибавляем к стоимости.
Итого по сценарию А: ~10,4 млн ₽ разработка + ~2,4 млн ₽ потерь на ожидании = ~12,8 млн ₽ до момента, когда первый аналитик увидит работающую AI-функцию. И через 8 месяцев у вас будет урезанная версия того, что у нас уже сегодня в продакшене с per-user-MCP, опросами, RAG-альтернативой и всем остальным.
Сценарий Б. Обучить свою модель с нуля
Часть руководителей всерьёз планирует «давайте свой ИИ обучим, чтобы данные не утекали». Это совсем другой порядок цифр — не «+30%» к таблице выше, а умножение в 30–100 раз.
| Что нужно | Сколько это стоит |
|---|---|
| ML-команда (research lead + 2–3 ML-инженера + data engineer) | 2,5–3 млн ₽/мес FOT |
| Подготовка датасета (десятки тысяч размеченных BPMN-кейсов, юристы, NDA, разметчики) | 3–6 месяцев, отдельный бюджет на разметку |
| GPU-кластер для обучения (минимум 8×A100 / H100 или аренда) | от 1,5 млн ₽/мес аренды |
| Цикл обучения: pretrain → SFT → RLHF → eval → итерации | 6–12 месяцев до уровня «не хуже GPT-3.5» |
| Итого первый год | от 60 до 150 млн ₽ |
| До уровня «как у нас» | никогда — догнать SOTA на собственном бюджете нереально |
Стоимость обучения собственной BPM-LLM с нуля
Свою BPM-LLM не обучают даже Сбер и Яндекс. Они берут базовую модель (GPT, Claude, Llama, GigaChat-base) и дообучают её. Если вы не Big Tech — этот путь закрыт.
А чтобы не отдавать данные, обучать модель с нуля не нужно. Достаточно подключить локальную Llama, GigaChat или YandexGPT — это сценарий А с поправкой на провайдера. Мы такое уже поддерживаем.
Сколько вам стоит каждый месяц промедления
Пока вы решаете «брать или сделать самим» — счёт идёт.
| Если у вас… | Месяц промедления стоит | Год обсуждений (типичный срок «сделаем сами») |
|---|---|---|
| 10 BPM-аналитиков | ~300 000 ₽ | ~3,6 млн ₽ |
| 50 BPM-аналитиков | ~1,5 млн ₽ | ~18 млн ₽ |
| 200 человек, любых, в процессах компании (если включаем седьмую задачу) | ~600 000 ₽ | ~7,2 млн ₽ |
Деньги, которые вы тратите на ручной труд, пока думаете
Это не считая конкурентного отставания. Те, кто подключает AI сейчас, через полгода будут моделировать процессы в пять раз быстрее, реагировать на изменения за дни вместо недель и иметь команду аналитиков, не выгоревшую от рутины. Это уже не операционная экономия — это позиция на рынке.
Окупаемость подписки
- Только на рутине BPM-команды (10 чел., таблица в начале) — экономия ~3,6 млн ₽/год. Подписка окупается за 1–2 месяца.
- Против сценария А (своя разработка ~12,8 млн ₽ за 8–12 месяцев с учётом портала, RBAC, инфры, токенерации и защиты) — Storm окупает себя в первые недели.
- Против сценария Б (обучение модели, 60–150 млн ₽/год) — подписка окупается за первую неделю работы ML-команды.
- Если включаем седьмую задачу и команда 200 человек — экономия ~7–10 млн ₽/год только на сокращении нагрузки на методологов.
Storm работает уже сегодня. Ваша команда — через 8–12 месяцев, если повезёт удержать состав и не недооценить объём работ.
Что делать прямо сейчас
Три ситуации — три действия.
Если вы уже клиент Storm
Откройте редактор, зайдите в любую диаграмму, нажмите кнопку «AI». Если у вас тариф с MCP — зайдите в Профиль → MCP-ключи и подключите Storm к своему Claude. Видеогайд по подключению — там же. На всю настройку уходит 5 минут на сотрудника. На проде в конце мая 2026.
Если вы ещё не клиент
Запишитесь на 30-минутное демо. Что мы сделаем на звонке:
- Принесите ваш самый сложный реальный процесс — на ваших глазах AI нарисует его за 30 секунд.
- Покажем все семь задач из этой статьи в режиме live.
- Принесите выгрузки из ваших систем — Business Studio, ARIS, Camunda, Bizagi, BPMN-файлы, Excel с оргструктурой, экспорт реестров. Оценим миграцию под ваш кейс: сколько ваших данных подтянется автоматически, что нужно довести руками, за сколько недель будет работающий AI-консультант для команды.
- По вашим ставкам и объёмам посчитаем индивидуальный отчёт по экономии и пришлём отдельным документом.
Без обязательств, без покупки на звонке.
Если вы из enterprise со своей моделью или своими требованиями к безопасности
Напишите нам — подключим вашу LLM (OpenAI Enterprise, Anthropic, локальная Llama, GigaChat, YandexGPT) за один созвон. Промпты возьмите наши, модель — вашу. On-prem, гранулярные права, MCP-ключи под политики безопасности — всё уже есть.
Подробнее — на странице AI-инструменты.
FAQ
Откуда вы взяли цифры экономии — это маркетинг?
Цифры рассчитаны от нижней границы рынка РФ — час BPM-аналитика 1 500 ₽, час BPM-коуча 5 000 ₽, час дата-аналитика 2 500 ₽. Реальные ставки в 1,5–3 раза выше, особенно для внешних консультантов. То есть мы скорее занижаем экономию, чем завышаем. Подставьте свои ставки в таблицу — числа вырастут.
Что, если у нас в команде только 2 аналитика и 20 диаграмм в год?
Пропорционально меньше: ~720 тыс ₽ в год потерь без AI вместо 3,6 млн. Подписка всё равно окупается за пару месяцев — потому что задачи и время на одну диаграмму не зависят от размера команды.
А если мы платим аналитикам 100 тыс ₽/мес, а не 250?
Тогда час стоит ~600 ₽ вместо 1 500 ₽. Экономия в часах остаётся той же (вы всё ещё выигрываете 9 часов на диаграмме), а в рублях — пропорционально меньше. Но в этом случае подключается другой эффект: освободившиеся часы аналитик тратит не на отдых, а на следующую диаграмму. Команда успевает сделать в 5–10 раз больше работы за тот же ФОТ.
Какие модели вы используете в облачной версии?
Мы публично не называем конкретного провайдера, чтобы иметь возможность переключаться при изменении качества или цены. Сейчас под капотом — модель класса GPT-4 / Claude Sonnet, оттестированная на нашем корпусе диаграмм. В enterprise-версии вы подключаете свою.
Уходят ли наши данные на обучение OpenAI или Anthropic?
В облачной версии — мы используем business-тарифы провайдеров, где данные не идут в обучение моделей. В enterprise-версии вы подключаете свою модель и сами контролируете, куда уходят данные.
Что такое MCP-сервер и зачем он нужен, если AI уже встроен в редактор?
AI в редакторе — это конкретные операции, которые мы заранее запрограммировали (сгенерируй диаграмму, опиши активность, проанализируй процесс). MCP — открытый интерфейс: ваш Claude или Cursor может вызывать любые операции Storm в произвольном порядке, итеративно дорабатывать диаграмму, использовать данные из реестра и оргструктуры. Это переход от «AI-ассистент в продукте» к «продукт как инструмент в вашем AI-ассистенте».
Сколько стоит MCP-сервер?
В облачной версии MCP-сервер входит в бесплатную подписку и выше — отдельной оплаты нет. В enterprise-поставке AI-модуль (включая MCP) оплачивается отдельно — за условиями свяжитесь с продажами. За подписку на LLM (Claude, ChatGPT, корпоративные тарифы) платите вы напрямую провайдеру — без наших наценок. На команду из 50 аналитиков это около 150 000 руб/мес на Claude Team.
Как лицензируется AI в enterprise-поставке?
AI-модуль в enterprise оплачивается отдельно от базовой подписки Storm BPMN. За условиями и ценами — свяжитесь с продажами.
Безопасно ли давать AI доступ к нашим процессам?
MCP-ключ наследует права пользователя в Storm: что недоступно вам — недоступно и через AI. Ключ можно отозвать в любой момент, лимит — 10 активных ключей на пользователя.
А если у нас в Storm плохо описана оргструктура — MCP всё равно поможет?
Качество ответов AI пропорционально качеству ваших моделей. Если у вас не назначены роли, не привязаны системы и документы, не описаны зоны ответственности — Claude увидит то же, что видит человек: пустые поля. Это и есть главный аргумент сначала навести порядок в Storm: AI превращает каждое заполненное поле в ответ на вопрос сотрудника. Чем точнее модель — тем точнее консультант.
MCP — это только для аналитиков?
Нет. Аналитик пользуется MCP, чтобы быстрее моделировать. Но главная аудитория — все остальные сотрудники компании: бухгалтеры, юристы, эйчары, менеджеры, кладовщики, IT-шники. Каждый получает личного консультанта по своей зоне ответственности. Работает в любом LLM-клиенте — Claude Desktop, ChatGPT, Cursor.
Можно ли запускать опросы по процессам в Storm и сразу видеть AI-выводы?
Да, это встроенная фича. Создаёте опрос, привязываете к процессу, выбираете респондентов (по ролям, командам, конкретным людям), задаёте вопросы. Storm рассылает приглашения, респонденты отвечают анонимно, ответы копятся. После закрытия — кнопка «AI-анализ» и готовый отчёт с трендами, кластерами и рекомендациями. Без CSV, без Excel, без переписки с дата-аналитиком.
Что будет, если AI сгенерирует неправильную диаграмму?
Любая AI-генерация — черновик. Аналитик правит её мышкой или просит AI доработать через MCP. Все изменения версионируются — откат к предыдущей версии одной кнопкой.
Можно ли использовать AI в on-prem поставке без выхода в интернет?
Да, через подключение локальной LLM (Llama, Qwen, GigaChat в private cloud). Storm обращается к LLM по HTTP, провайдер настраивается в админке. Все данные остаются в вашем периметре.
А если мы уже нарисовали процессы в ARIS / Camunda / Bizagi / Visio? Заново всё перерисовывать?
Нет. Storm импортирует BPMN 2.0 — это открытый стандарт, поддерживается всеми приличными редакторами. Camunda, Bizagi, Signavio, bpmn.io, ELMA — экспортируете в .bpmn-файл и загружаете. Visio — сохраняете в BPMN или конвертируете один раз через бесплатные конвертеры. ARIS — выгрузка в BPMN-формате. Дальше Storm читает структуру, а вы дорабатываете в редакторе или через AI.
У нас Business Studio — что делать?
Business Studio — самый частый кейс миграции у наших клиентов. Что переносится и как:
- Процессы — через стандартный экспорт Business Studio в BPMN 2.0 XML. Storm читает напрямую, структура сохраняется.
- Оргструктура и роли — экспорт в Excel или CSV из Business Studio, импорт в Storm одним кликом. Связь ролей с процессами восстанавливается автоматически по совпадению имён.
- Реестры систем, документов, рисков — то же самое: Excel-выгрузка → импорт.
- Регламенты из HTML-навигатора — на этапе пилота прикрепляются как привязанные документы, постепенно заменяются нативными карточками Storm с AI-помощью.
Типичная миграция средней инсталляции (200–500 процессов, 50–200 ролей, 100+ систем) занимает 2–4 недели до момента, когда AI-консультант работает на ваших данных. Если у вас Business Studio Enterprise с расширенными моделями (СМК, KPI, риски) — на демо расскажем, что подтянется автоматически и где придётся доработать вручную. Большинство клиентов после миграции отмечают: накопленный за годы массив описаний процессов, который в Business Studio был «архивом для аудита», в Storm впервые становится живым инструментом — потому что AI делает его доступным каждому сотруднику.
А оргструктура и реестр систем у нас в Excel и AD — как переносить?
Excel и CSV — стандартный импорт через интерфейс. AD/LDAP — через REST-API Storm или единоразовый CSV-экспорт. На команду 200 человек миграция оргструктуры — это 1–2 дня работы одного аналитика. Если нужна регулярная синхронизация — настраивается через API один раз и дальше работает автоматически.

