Консилиум: три агента нашли разные проблемы в проекте
Когда нужно принять сложное решение по проекту, обычно просишь агента: “Что думаешь?” Получаешь один ответ. Вежливый, структурированный, с bullet points. И без альтернативной точки зрения.
Я попробовал иначе. Показал текущее состояние кружка вайбкодинга нескольким субагентам и попросил каждого дать независимую оценку. Не выполнить задачу — а высказаться. Как врачи на консилиуме: каждый смотрит на одного пациента, но видит своё.
За полтора часа получил план действий, который зафиксировал в GitHub Issues. Не “можно попробовать”, а конкретные задачи с приоритетами.
Консилиум — это не Agent Teams
Agent Teams — команда, которая работает вместе. Один делает backend, другой frontend, третий тесты. Цель — скорость.
Консилиум — про другое. Несколько экспертов смотрят на одну проблему, каждый в изоляции. Не координируются. Не знают о мнениях друг друга. Цель — качество решения.
AGENT TEAMS КОНСИЛИУМ
─────────── ─────────
┌──────────┐ ┌──────────┐ ┌──────────┐
│ Agent 1 │ │ Agent 2 │ │ Expert 1 │──── независимо
│ backend │ │ frontend │ │ UX │
└────┬─────┘ └────┬─────┘ └──────────┘
│ │
└──── общий ───┘ ┌──────────┐
task list │ Expert 2 │──── независимо
│ бизнес │
└──────────┘
┌──────────┐
│ Expert 3 │──── независимо
│ архитект │
└─────┬────┘
│
▼
┌──────────┐
│ Синтез │
└──────────┘
Цель: скорость Цель: качество решения
В медицине это устоявшаяся практика. Консилиум — когда несколько врачей разных специальностей независимо оценивают случай. Онколог, хирург, радиолог. Каждый видит своё. Решение — на пересечении мнений.
Andrej Karpathy формализовал похожий паттерн для LLM: несколько моделей дают независимые ответы, потом peer review, потом Chairman синтезирует. MIT Media Lab пошли дальше — MDAgents эмулирует реальный медицинский консилиум, автоматически выбирая между solo-решением и групповым обсуждением.
Идея не новая. Новое — что это можно сделать за один промпт в Claude Code.
Как это выглядело
Кружок вайбкодинга. Есть бот, уроки, платежи, прогресс учеников. Работает, но хаотично. Я хотел понять: что хорошо, что плохо, и куда двигаться дальше.
Первый промпт — попросил агента нарисовать текущую архитектуру.
Получил картину. Увидел масштаб. И понял, что одного мнения мне мало.
Claude Code запустил несколько субагентов через Task tool. Каждый получил одинаковый контекст — текущее состояние проекта. Но разный фокус: один смотрел на архитектуру, другой на UX, третий на бизнес-логику.
Тут принципиально слово “независимых”. Субагенты не видят ответы друг друга. Каждый анализирует с нуля, без влияния предыдущих оценок. Параллельная экспертиза, не дискуссия.
Почему независимость важна
Когда спрашиваешь одного агента “что плохо?”, он выдаёт список. Аккуратный, без конфликтов с самим собой. Одна перспектива.
Когда пять экспертов смотрят независимо — они находят разное. UX-эксперт видит проблемы в онбординге, которые архитектор не замечает. Бизнес-аналитик задаёт вопрос про unit-экономику, который технарь не задаст.
На ICLR 2026 представили Multi-Agent-as-Judge — фреймворк, где агенты с разными персонами дебатируют и дают многомерную обратную связь. Вывод простой: разные точки зрения ловят разные проблемы.
Похожий принцип я использую в пайплайне деаификации текста — три параллельных критика находят разные проблемы, которые один rewriter пропустил бы. Но там критики проверяют текст. Здесь — оценивают проект целиком.
Валидация через research
После консилиума у меня был список рекомендаций. Но рекомендации от LLM — это утверждения, не факты. Нужна проверка.
Агент взял каждую рекомендацию консилиума и проверил через веб-поиск. Нужна ли прогресс-система для учеников? Что говорят исследования про вовлечённость? Какие метрики отслеживать?
Без этого шага консилиум — просто мнения. А мнения без фактов — галлюцинации в красивой обёртке. Похожий подход использовал для контент-плана с субагентами и Exa MCP — там тоже сначала идея, потом проверка через поиск.
От мнений к задачам
Проверенные рекомендации — ещё не план. Нужно превратить их в конкретные задачи.
И дальше — с проверкой:
Агент разбил каждую рекомендацию на задачи, провёл brainstorm по каждой через субагентов, и записал результаты в GitHub Issues. С описанием, контекстом, и обоснованием.
Весь пайплайн за сессию:
┌────────────────┐
│ Диаграмма │ Промпт 1: "нарисуй как сейчас"
│ текущего │
│ состояния │
└───────┬────────┘
│
▼
┌────────────────┐
│ Консилиум │ Промпт 2: "независимые эксперты"
│ 5 экспертов │
│ параллельно │──── каждый НЕ видит других
└───────┬────────┘
│
▼
┌────────────────┐
│ Research │ Промпт 3: "проверь через поиск"
│ по каждой │
│ рекомендации │──── факты, не мнения
└───────┬────────┘
│
▼
┌────────────────┐
│ Brainstorm │ Промпт 4-5: "план → issues"
│ + GitHub │
│ Issues │──── конкретные задачи
└────────────────┘
Сессия: 92 мин, 15 промптов
92 минуты. 15 промптов. На выходе — набор задач в GitHub Issues, проверенных через research и разложенных на шаги. Не “идеи на подумать”, а backlog.
Когда консилиум, а когда хватит одного агента
Консилиум нужен не всегда. Вот как я это разделяю:
| Ситуация | Подход |
|---|---|
| Баг в коде | Один агент, без консилиума |
| Архитектурное решение | Консилиум: архитектор + UX + бизнес |
| Написать тест | Один агент |
| Стратегия развития проекта | Консилиум + research |
| Рефакторинг одного модуля | Один агент |
| Аудит перед масштабированием | Консилиум |
Простое правило: если решение обратимо за пять минут — один агент. Если ошибка стоит дней работы — консилиум.
Промпт для копирования
Вот промпт, который запускает консилиум. Адаптируй под свой проект — замени контекст и роли экспертов.
Мне нужен консилиум независимых экспертов по проекту [название].
Вот текущее состояние: [описание или путь к файлам].
Запусти через субагентов 4-5 экспертов с разными фокусами: — Архитектура и технический долг — UX и пользовательский опыт — Бизнес-логика и масштабируемость — Безопасность и надёжность — [добавь свою специализацию]
Каждый должен работать НЕЗАВИСИМО, не видя ответов других. Для каждого: что хорошо, что плохо, топ-3 рекомендации с приоритетом.
После — синтез: где мнения совпали (высокий приоритет), где разошлись (нужна дискуссия), итоговый план действий.
Без слова “независимо” агент может запустить экспертов последовательно — и каждый следующий подстроится под предыдущего. Вся суть ломается. Независимость работает только через параллельные субагенты, каждый в своём контексте.
Что я понял
Субагенты — не только руки, но и головы. До этой сессии я воспринимал субагентов как исполнителей: разбей на куски, обработай, собери. Похожий подход описывал для четырёх параллельных критиков в eval-пайплайне. Но консилиум — другое. Здесь субагенты не делают — они думают. Не выполняют задачу, а формируют мнение.
Качество — через множественность. Один эксперт даёт одну перспективу. Пять независимых — пять перспектив, и на пересечении мнений оказывается то, что реально важно. А расхождения — сигнал копать глубже.
Research после мнений, не вместо. Консилиум без проверки — пять галлюцинаций вместо одной. Мнения экспертов → проверка фактов → план действий.
Результат — не текст, а задачи. Красивый отчёт “что хорошо, что плохо” бесполезен, если через неделю забыл половину. А задача в GitHub Issues — уже обязательство.
Частые вопросы
Чем консилиум отличается от обычного “дай несколько мнений”?
Независимостью. “Дай три мнения” — один агент генерирует три варианта последовательно. Каждый следующий знает про предыдущий и подстраивается. Консилиум — параллельные субагенты, каждый в своём контексте. Разница как между одним врачом, который предлагает три варианта, и тремя врачами, которые смотрят случай отдельно.
Сколько экспертов нужно?
Три-пять. Меньше — мало перспектив. Больше — синтез становится сложным и дорогим по токенам. Четыре — мой дефолт.
Это работает только в Claude Code?
Нет. Паттерн — параллельные независимые оценки + синтез. Реализуется в любом инструменте с субагентами или параллельными запросами. Claude Code удобен тем, что субагенты запускаются через Task tool и работают в изолированных контекстах.
Не дорого ли запускать 5 субагентов?
Дороже одного — да. Но дешевле ошибочного архитектурного решения. Консилиум из пяти субагентов на Haiku обходится в центы. На Opus — в доллары, но для стратегических решений это окупается за первую же предотвращённую переделку.
Подписаться на обновления — @sereja_tech