Сравнительный анализ платформ для автоматизации предприятия с помощью AI. Три класса решений, scorecard с весами, целевая архитектура для CTO.
Каждый класс решает принципиально другую задачу. Типичная enterprise-архитектура использует все три слоя.
Бизнес-автоматизация, где AI — один из инструментов. 400+ интеграций с CRM, email, БД. Visual drag-and-drop. Минимальный TCO. Self-hosted бесплатно.
Code-first фреймворки для мультиагентных систем, RAG-пайплайнов, stateful workflow с checkpoint-recovery. Максимальная гибкость для разработчиков.
Инфраструктурный слой: unified API, маршрутизация, fallback, cost control, observability, governance, PII protection.
n8n решает задачу бизнес-автоматизации с AI, а не задачу построения AI-приложения. Это даёт лучший ROI в 80% enterprise-сценариев.
| Критерий | n8n | Flowise | Dify |
|---|---|---|---|
| Бизнес-интеграции | 400–500+ | 100+ LLM | 50–100 |
| AI-узлы | ~70 (LangChain) | 3 билдера | Visual + Prompt IDE |
| RAG из коробки | ★★★ | ★★★★ | ★★★★★ |
| Human-in-the-loop | ✓ Встроен | Ограничен | ✓ |
| Horizontal scaling | K8s-native | Ограничен | Ограничен |
| Производительность | 220 exec/sec | Moderate | Высокая |
| SSO / RBAC | Enterprise (зрелые) | Enterprise | Enterprise |
| Зрелость | 7 лет, 55–60K ★ | 3 года, 30K ★ | 2 года, 58K+ ★ |
| Self-host cost | $0 (бесплатно) | $0 (Apache 2.0) | $0 (source-avail) |
| TCO 3 года (50 users) | $5–15K (инфра) | $5–10K | $8–20K |
TCO включает только серверную инфраструктуру. Self-hosted версии бесплатны. Не включает стоимость LLM API.
Code-first инструменты для сложных stateful AI-приложений. Все — Python-библиотеки, полностью self-hosted.
Directed graph. Checkpoints. ~400 компаний в production. Максимальный контроль, но высокий порог входа.
Apache 2.0, 6 лет зрелости. Лучший для RAG-тяжёлых enterprise-пайплайнов. Serializable pipelines.
YAML-конфиг, ролевые команды. Самый быстрый прототип. Типичный путь: CrewAI → LangGraph при росте.
Инфраструктурный прокси: единый API, маршрутизация, fallback, cost control, governance.
| Критерий | Kong AI GW | LiteLLM | Portkey |
|---|---|---|---|
| Производительность | 65–86% ниже latency | 8мс P95 @ 1K RPS | <1мс overhead (GW) |
| Масштабируемость | ★★★★★ (battle-tested) | ★★★ (Python GIL) | ★★★★ |
| RBAC / Governance | 100+ plugins | Enterprise only | ✓ Built-in |
| PII controls | 12 языков | Beta (Presidio) | ✓ |
| Compliance | SOC 1/2, HIPAA, PCI | Нет данных | SOC2, ISO 27001 |
| Self-hosted | K8s/Docker | MIT, Docker/K8s | Gateway OSS |
| Ease of adoption | Steep (нужен Kong) | pip install / Docker | Средняя |
| Провайдеры | Multi-LLM | 100+ | 1,600+ моделей |
Бенчмарк Kong: 200%+ throughput vs Portkey, 800%+ vs LiteLLM. Источник: konghq.com. LiteLLM: Python GIL — P99 90.72с @ 500 RPS.
Полностью self-hosted, zero API dependency, минимальный TCO.
Visual слой для бизнес-пользователей. 400+ интеграций. AI Agent Node + HTTP-вызовы к LiteLLM и LangGraph. Human-in-the-loop. Дополнительно: Dify для сложных RAG/chatbot.
Stateful workflows, RAG-пайплайны, мультиагентная координация. Python-библиотеки, интегрируются с LiteLLM gateway.
Единый OpenAI-compatible API. Маршрутизация, fallback, cost tracking, caching. При росте → Kong AI Gateway.
Llama 4, Mistral, Qwen 3, DeepSeek, Saiga. Полностью on-prem, zero API dependency.
Экономия 40–60% при объёме >50K запросов/день + полный контроль над данными.
Полный air-gap. Kong для governance (SOC/HIPAA/PCI). n8n для бизнес-автоматизации. LangGraph для сложных agent workflows.
n8n Community (бесплатно) + LiteLLM (MIT) + Ollama. Docker Compose за 30 минут. Нулевая зависимость от внешних API.
LangGraph для state/checkpoint. CrewAI для прототипов. LiteLLM как gateway. n8n для триггеров и бизнес-логики вокруг агентов.
n8n (400+ интеграций) → CRM/email. Dify → RAG по документам, генерация контента. Portkey → единый cost tracking.
Haystack — production RAG (Apache 2.0). Dify — visual RAG builder. LiteLLM — gateway к моделям.
Kong — battle-tested, 65–86% ниже latency. Bifrost (Go) — 11µs overhead. НЕ LiteLLM (Python GIL, деградация).
Fair-code лицензия (не MIT). Enterprise-функции платные. AI-узлы менее глубоки чем Dify. Маркетинг как AI-first, реальность — automation-first с AI.
Python GIL — деградация @ high concurrency. P99: 90.72с @ 500 RPS. 800+ open issues. OOM в K8s (сент. 2025). DB logging тормозит после 1M записей.
Workday acquisition — risk vendor lock-in. Производительность при высокой нагрузке. Хорош для demo, в production нужен hardening.
Требует существующей Kong-инфраструктуры. Enterprise pricing. Steep learning curve для новых команд.
Высокий порог входа (теория графов). 50+ строк vs 20 в CrewAI. Максимум контроля = максимум кода. Не для citizen developers.
Source-available (не полный OSS). Скудные бизнес-интеграции вне AI. Удалил LangChain из кодовой базы. Enterprise-зрелость уступает n8n.
Все западные API заблокированы. 19-й пакет санкций ЕС запрещает AI-сервисы. Рекомендуемый стек — полностью self-hosted, zero external dependencies.
Ollama + Llama 4, Mistral, Qwen 3, DeepSeek, Saiga (рус. файнтюны), GigaChat API
LiteLLM self-hosted (MIT) → маршрутизация к локальным моделям
n8n Community (бесплатно) + Flowise (Apache 2.0) + Dify (Docker)
n8n + LiteLLM + Ollama → 100% air-gapped, $0 лицензий