> · 11 мин

Ферма AI-агентов — 5 способов собрать команду, которая кодит, ревьюит и мёржит без тебя

Ферма AI-агентов — 5 способов собрать команду, которая кодит, ревьюит и мёржит без тебя

Ферма AI-агентов — 5 способов собрать команду, которая кодит, ревьюит и мёржит без тебя

Один AI-агент — это помощник. Пять агентов, работающих параллельно — это уже команда. А если они сами берут задачи из GitHub, кодят в изолированных ветках, ревьюят друг друга и мёржат PR пока ты спишь — это ферма.

В марте 2026 мульти-агентные системы перестали быть экзотикой. Anthropic выкатила Agent Teams, OpenAI — субагенты для Codex, а на GitHub появились фреймворки вроде Agent Swarm, которые оркеструют десятки агентов в Docker-контейнерах. Один разработчик собрал ферму из 35 агентов, которая за ночь обработала 6 500 задач. Другой управлял 20 агентами неделю и вывел 8 правил выживания.

Вопрос не "можно ли", а "нужно ли именно тебе" — и если да, с какого уровня начать.

TL;DR: 5 уровней сложности: субагенты (0 настройки), Agent Teams (одна строка в settings.json), Agent Swarm / Claude Flow (Docker + npm), Autonomous Dev Team (GitHub → PR автопилот) и "Chief of Staff" (ферма для жизни, не только кода). Но самый важный инсайт — с Reddit: скучный одинокий агент, который надёжно делает 3 вещи, побеждает красивый рой из 20 агентов, ломающийся каждые 48 часов.

Уровень 1: Субагенты — ноль настройки

Простейший вход в мульти-агентность. Субагенты встроены в Claude Code из коробки — никаких флагов, конфигов и Docker.

Когда ты просишь Claude Code исследовать 5 конкурентов, он сам порождает 5 параллельных агентов, каждый в своём контексте. Результаты возвращаются в основной разговор.

Конкретный пример — кастомный субагент для ревью:

// .claude/agents/security-reviewer.md
---
name: security-reviewer
description: Reviews code for security vulnerabilities
model: claude-sonnet-4-6
tools: ["Read", "Glob", "Grep"]
---

Review the given files for OWASP Top 10 vulnerabilities.
Focus on: injection, broken auth, XSS, insecure deserialization.
Report findings with severity ratings.

Теперь пишешь Review auth module using security-reviewer agent — и субагент работает в изолированном контексте, видит только то, что ему дали.

Когда хватит: одна задача, которую хочется распараллелить. Ревью 3 модулей, исследование 5 API, рефакторинг 4 директорий.

Когда мало: нужна координация между агентами, общие задачи, обмен сообщениями.

Уровень 2: Agent Teams — нативные команды

Agent Teams — это следующий шаг. Агенты видят друг друга, общаются через mailbox, берут задачи из общего списка.

Включение — одна строка в ~/.claude/settings.json:

{
  "env": {
    "CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS": "1"
  }
}

Дальше описываешь команду на естественном языке:

Create an agent team to build a REST API.
Spawn three teammates:
- Backend developer: implements endpoints in src/api/
- Test engineer: writes tests in tests/
- Documentation writer: updates docs/
Have them coordinate through the shared task list.

Claude создаёт team lead, порождает тиммейтов, каждый работает в своём tmux-пейне. Они сами берут задачи, отчитываются и просят помощи друг у друга — peer-to-peer, не через лидера.

По наблюдениям John Kim, который месяц работал с Agent Teams:

  • Токены масштабируются линейно — 5 агентов = 5× расход. Для ревью и исследований это окупается, для рутины — нет
  • Можно указать модель для каждого тиммейта — дебаггер на Opus, UI-тестер на Sonnet, документатор на Haiku. Существенная экономия
  • tmux/iTerm2 со сплит-пейнами — единственный нормальный способ видеть, что делает каждый агент. Без этого — чёрный ящик

Ключевое отличие от субагентов:

  • Субагенты — результат возвращается вызывающему, потом агент умирает
  • Agent Teams — полноценные независимые сессии с общим task list и прямой коммуникацией

Уровень 3: Agent Swarm и Claude Flow — Docker-оркестрация

Когда нативных Teams не хватает — нужна персистентность, Slack-интеграция, веб-дашборд и агенты, которые помнят прошлые сессии — подключаются внешние фреймворки.

Agent Swarm (desplega-ai)

Agent Swarm — open-source оркестратор, где агенты живут в Docker-контейнерах. Lead-агент получает задачи (из Slack, GitHub или CLI), декомпозирует и раздаёт worker-агентам.

Запуск:

# Клонируем
git clone https://github.com/desplega-ai/agent-swarm
cd agent-swarm

# Конфигурируем
cp .env.example .env
# Вписываем API_KEY и CLAUDE_CODE_OAUTH_TOKEN

# Запускаем — API + lead + 2 workers
docker compose up

API на порту 3013, дашборд отдельно. Каждый worker — полноценный Docker-контейнер с Claude Code внутри. Агенты имеют startup-скрипты (/workspace/start-up.sh), которые сохраняются между перезапусками — если агент установил ripgrep, он будет там и завтра.

Киллер-фичи: шаблоны агентов (9 штук из коробки — lead, coder, researcher, reviewer, tester...), интеграция с GitLab, агентская файловая система (agent-fs) для общей памяти, cron-задачи.

Claude Flow

Claude Flow — npm-пакет с 17 специализированными режимами SPARC (Specification, Pseudocode, Architecture, Refinement, Completion).

npm install -g claude-flow@alpha
npx claude-flow@alpha init --force
claude-flow init --start-all

Особенность — SQLite для персистентной памяти и JSON-протокол для межагентного общения. Можно запустить сотни агентов в swarm-режиме:

./claude-flow swarm "build, test, and deploy my application"

По данным Analytics Vidhya, дебаг становится сложнее — проблемы размазываются по нескольким агентам и общей памяти. Плюс жёсткая привязка к Claude Code — с другими LLM-провайдерами не работает.

Уровень 4: Autonomous Dev Team — GitHub → PR автопилот

Самый интересный кейс. Autonomous Dev Team — это GitHub-шаблон, где три агента превращают issue в merged PR без единого клика:

  • Dispatcher (OpenClaw) — каждые 5 минут сканирует issues, раздаёт задачи
  • Dev Agent (Claude Code) — читает issue, создаёт worktree, пишет тесты, реализует фичу, создаёт PR
  • Review Agent — независимый ревьюер с 10-пунктным чеклистом, E2E-тестами через Chrome DevTools MCP

Весь workflow построен на GitHub labels как state machine:

  • autonomous → Dispatcher подхватывает
  • in-progress → Dev Agent работает
  • pending-review → Review Agent проверяет
  • approved → PR мёржится

Конкретный пример из продакшена: баг с CJK-символами в slugs. Dev Agent провёл root cause analysis (URL encoding mismatch через CloudFront → API Gateway → Lambda), написал 22 юнит-теста для CJK, диакритики, эмодзи и смешанных скриптов. Review Agent прогнал E2E на preview-деплойменте. Баг закрыт меньше чем за час — без человека.

Настройка:

# Используем GitHub template
# https://github.com/zxkane/autonomous-dev-team

cp scripts/autonomous.conf.example scripts/autonomous.conf
# Указываем REPO, PROJECT_DIR, AGENT_CMD="claude", MAX_CONCURRENT=5

# Настраиваем OpenClaw dispatcher (cron каждые 5 минут)
*/5 * * * * cd /path/to/autonomous-dev-team && openclaw run

Для аудита каждый агент работает как отдельный GitHub App bot — kane-coding-agent[bot] для Dev Agent, kane-test-agent[bot] для Review Agent. Сразу видно, кто что сделал.

Уровень 5: "Chief of Staff" — ферма для жизни

Система из The AI Corner выходит за рамки кодинга. 4 слоя:

  • MCP-серверы — Google Calendar, Gmail, Todoist, Google Maps API
  • Scheduled Tasks — email triage в 5:30 утра, подготовка календаря в 5:45
  • Субагенты — 6 параллельных агентов (email-drafter, client-notes, meeting-scheduler и ещё 3)
  • Команды — am-sweep (утренняя зачистка), time-block (автоматический тайм-блокинг с учётом пробок)

Одна кнопка утром запускает 6 агентов, которые параллельно разгребают почту, готовят заметки к встречам и блокируют календарь. По оценке автора — $100/месяц за систему, которая заменяет виртуального ассистента за $400-1000.

Классификация задач для безопасности: Dispatch (агент делает сам), Prep (агент готовит, ты подтверждаешь), Yours (только ты), Skip (игнорировать). Без этого агент рано или поздно отправит не тот email не тому человеку.

8 правил от того, кто управлял 20 агентами

Zach Wills за неделю с 20 агентами выработал конкретные правила:

  1. Согласуй план, а не цель. Команда /spike для маленькой задачи, /tech plan для большой. Дешевле исправить плохой план, чем плохую реализацию
  2. Долгий агент — это баг. Если агент работает больше 15-20 минут — он застрял. Убей, дай лучшую инструкцию, перезапусти
  3. Декомпозируй до скуки. Каждый агент получает задачу, которую можно описать одним предложением
  4. Управляй контекстом через субагентов. Не валить всё в один контекст — архитектурить pipeline
  5. Доверяй автономному циклу. После выравнивания по плану дай агенту итерировать самостоятельно
  6. Самообновляющийся CLAUDE.md. После каждой задачи агент записывает свои learnings в общий файл
  7. Будь безжалостен к перезапускам. Агент пошёл не туда? Не жди. Kill, новая инструкция, restart
  8. Коммить рано и часто. Git — единственная страховка от агента, который решил "улучшить" работающий код

А пользователь с Reddit, который месяцами гоняет 5-6 агентов параллельно, добавляет ещё три:

  • Одна строка в CLAUDE.md решает 80% конфликтов: "Multiple agents may be working simultaneously. If you see build errors in files you did NOT edit, do not try to fix them. Wait 30 seconds and retry the build."
  • Git worktrees для рискованной работы. Агент работает на изолированной копии, ты ревьюишь diff и мёржишь вручную
  • Логируй всё в базу. Когда 5 агентов работают ночью, без Postgres с timestamps и session IDs ты не поймёшь, что они натворили

"Скучный агент побеждает" — анти-паттерн

Самый отрезвляющий пост в этой теме — с r/openclaw. Автор изучил 40-50 реальных сетапов и увидел два пути:

Путь A (строитель): 15 скиллов, 4 агента с оркестратором, все API подключены. Скриншот на Reddit. Ко вторнику что-то ломается. К третьей неделе обслуживание фермы жрёт больше времени, чем она экономит. Тихо забрасывает.

Путь B (пользователь): 1 агент, 3-5 скиллов, Sonnet. Календарь. Email triage. Утренний брифинг. Скучно до зевоты. Работает 2 месяца спустя и реально экономит 30 минут в день.

Цитата: "If your agent config takes longer to explain than the time it saves you, something is backwards."

Это не значит, что фермы бесполезны. Это значит, что начинать надо с одного агента, одной задачи — и масштабировать только когда текущий уровень стабильно работает.

Подводные камни

Два агента, один файл — кто-то проиграет. Это главная причина смерти мульти-агентных сетапов. По отчёту с Reddit, два агента редактируют один файл — один перезаписывает работу другого. Решения: scope isolation (разные директории), lock-файлы, или governance layer типа delimit-mcp-server с collision detection.

Токены масштабируются линейно, а не логарифмически. 5 Agent Teams тиммейтов = 5 полных контекстных окон = 5× стоимость. По наблюдениям John Kim, для ревью и исследований это окупается, но для рутинных задач дешевле один агент. Совет: ставь Opus только lead-агенту, workers — на Sonnet или Haiku.

Agent Teams — всё ещё экспериментальная фича. Нужен env-флаг CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS=1. Могут сломать или изменить API в следующем релизе. Для продакшена надёжнее внешние фреймворки (Agent Swarm, Claude Flow), которые контролируешь ты, а не Anthropic.

Ночная ферма без логирования — русская рулетка. 5 агентов работали ночью, утром ты видишь 47 коммитов и 3 сломанных теста. Без centralized logging (Postgres, SQLite, хотя бы JSON-файл) невозможно понять, какой агент что сделал и почему.

"Maintenance > benefit" ловушка. Из тех же 40-50 сетапов: если объяснение того, что делает твоя ферма, занимает больше времени, чем она экономит — пора упрощать. Масштабируй только когда текущий уровень стабилен.

Вердикт

Из пяти уровней реальную отдачу прямо сейчас дают два: субагенты (нулевая настройка, стабильно работают для параллельных задач) и Agent Teams (нативная координация для сложных проектов, если готов к 3-5× расходу на токены). Autonomous Dev Team — самый впечатляющий по результатам, но требует OpenClaw, GitHub Apps и пару выходных на настройку.

Agent Swarm и Claude Flow — для тех, кому нужна персистентность, Slack-интеграция и агенты, которые переживают перезагрузку. Это уже инфраструктурный проект, не вечерний эксперимент.

И главный инсайт, который стоит запомнить: один стабильный агент, делающий три скучных вещи каждый день, ценнее красивого роя из 20 агентов, ломающегося каждые 48 часов.

Как попробовать

Шаг 1 — Субагенты (5 минут). Создай .claude/agents/code-reviewer.md с ограниченным набором инструментов (Read, Grep, Glob). Попроси Claude Code: "Review src/api/ using code-reviewer agent". Это работает прямо сейчас, без настройки.

Шаг 2 — Agent Teams (10 минут). Добавь в ~/.claude/settings.json:

{
  "env": {
    "CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS": "1"
  }
}

Перезапусти Claude Code. Попроси: "Create an agent team with a frontend dev and a backend dev to implement a login page." Открой tmux — увидишь агентов в параллельных пейнах.

Шаг 3 — Agent Swarm (вечер). git clone https://github.com/desplega-ai/agent-swarm, настрой .env, docker compose up. Дашборд на порту 3013.

Шаг 4 — Autonomous Dev Team (выходные). Используй GitHub template. Настрой autonomous.conf, OpenClaw cron, GitHub App bots. Создай issue с лейблом autonomous — и наблюдай.

Документация:

$ ls ./related/

Похожие статьи

lightpanda-headless-browser-zig.md
Lightpanda — headless-браузер на Zig, который в 11 раз быстрее Chrome и создан специально для AI-агентов
> · 7 мин

Lightpanda — headless-браузер на Zig, который в 11 раз быстрее Chrome и создан специально для AI-агентов

Lightpanda — headless-браузер, написанный с нуля на Zig. 11x быстрее Chrome, 19x меньше памяти, совместим с Puppeteer и Playwright. 26K звёзд за месяц, но пока бета — разбираемся, кому стоит пробовать уже сейчас.

ai open-source automation tools
qwen35-omni-multimodal-voice.md
Qwen3.5-Omni — 113 языков, голосовые клоны и аудио-видео в одном контуре. Alibaba наступает на пятки Gemini
> · 7 мин

Qwen3.5-Omni — 113 языков, голосовые клоны и аудио-видео в одном контуре. Alibaba наступает на пятки Gemini

Alibaba выкатила Qwen3.5-Omni — мультимодальную модель с текстом, картинками, аудио и видео в одном контуре. Три версии (Plus/Flash/Light), 256K контекста, 113 языков распознавания речи и voice cloning. Разбираем, что это даёт разработчику.

ai llm open-source qwen
sobesai.sh LIVE
S.
> sobesai.app · бесплатно

Sobes AI

AI-помощник для технических собеседований. Распознаёт вопросы, генерирует ответы по твоему стеку.

Попробовать бесплатно →
subscribe.sh

$ cat /dev/blog/updates

> Свежие заметки о программировании,

> DevOps и AI — прямо в мессенджер

./subscribe