GitHub Copilot CLI вышел из превью — plan mode, субагенты и ловушка на 300 запросов
GitHub Copilot CLI вышел из превью — plan mode, субагенты и ловушка на 300 запросов
GitHub наконец снял ярлык "preview" со своего терминального AI-агента. С 25 февраля Copilot CLI доступен всем, у кого есть платная подписка Copilot — от Pro за $10 до Enterprise. Полгода в preview, 418 релизов, 8.8K звёзд на GitHub — и теперь это полноценный GA-продукт.
TL;DR: Copilot CLI — терминальный AI-агент от GitHub с plan mode, параллельными субагентами (/fleet), делегированием задач в облако (/delegate) и памятью между сессиями. Работает с Claude Opus 4.6, GPT-5.3-Codex и Gemini 3 Pro. Но 300 premium-запросов на Pro-плане сгорают за 2 дня активной работы, а autopilot mode может сожрать всю квоту за ночь.
Терминальный ренессанс
Год назад разговор был "Copilot vs Cursor". Сейчас в поле 15+ серьёзных CLI-агентов, и каждый делает свою ставку. По опросу Faros AI среди 99 профессиональных разработчиков в январе 2026: 59% используют Claude Code, 52% — Cursor, 29% запускают несколько агентов одновременно. Терминал перестал быть местом, где запускают команды — это площадка, где AI-агенты получают доступ к кодовой базе, git-истории и твоему замыслу.
GitHub со своим Copilot CLI вступает в эту гонку с козырем, которого нет у остальных — нативная интеграция с крупнейшим хостингом кода в мире. Issues, pull requests, Actions, coding agent в облаке — всё доступно через slash-команды, не покидая терминала.
Установка — одна строка
curl -fsSL https://gh.io/copilot-install | bash
Или через пакетные менеджеры:
brew install copilot-cli # macOS winget install GitHub.Copilot # Windows npm install -g @github/copilot # npm
После запуска copilot и авторизации через GitHub — /init проанализирует проект и создаст базовый конфиг. Кастомные инструкции живут в .github/copilot-instructions.md — аналог CLAUDE.md у Claude Code.
Plan mode — сначала думай, потом коди
Shift+Tab переключает в plan mode. Copilot не бросается сразу писать код — он анализирует запрос, задаёт уточняющие вопросы и строит пошаговый план.
Допустим, ты пишешь:
> добавь пагинацию к API /users с cursor-based подходом
В plan mode Copilot:
- Спросит: "Используете ли вы уже какую-то ORM? Есть ли предпочтение по формату курсора — opaque ID или timestamp?"
- Покажет план: "Изменю
src/routes/users.ts, добавлюsrc/utils/pagination.ts, обновлю тесты в__tests__/users.test.ts" - Ждёт одобрения — одобрил, он выполняет, не одобрил — переделывает

Для сравнения: у Claude Code планирование — это конвенция сообщества. Ты пишешь plan.md, описываешь в CLAUDE.md правило "не пиши код без плана", используешь скиллы вроде Superpowers. У Copilot CLI plan mode — встроенный UI с визуальным деревом задач. Claude Code гибче и позволяет любой формат планирования, Copilot CLI — нагляднее и не требует настройки.
/fleet — параллельные субагенты
/fleet запускает несколько субагентов одновременно на одну задачу. Каждый работает в своём контексте, результаты сходятся в один итог:
> /fleet refactor auth module, update tests, fix lint errors
Три субагента — три задачи параллельно. Каждый отчитывается, ты одобряешь или правишь. Copilot также автоматически делегирует работу специализированным агентам:
- Explore — быстрый анализ кодовой базы без засорения основного контекста
- Task — запуск билдов и тестов (краткий отчёт при успехе, полный вывод при ошибке)
- Code Review — анализ изменений с фокусом на реальных проблемах, а не стилистике
- Plan — создание планов через анализ зависимостей и структуры
У Claude Code аналог — Agent Teams с до 7 параллельными субагентами. Разница: Claude Code позволяет запустить несколько экземпляров через git worktrees — физически разные рабочие директории, ноль конфликтов. У Copilot CLI субагенты живут внутри одного процесса с shared контекстом.
/delegate — отдай задачу в облако
Самая интересная фича для GitHub-центричных команд. /delegate перебрасывает текущую задачу из терминала в облачный Copilot coding agent — он работает в GitHub Actions, создаёт ветку, пишет код, прогоняет CI и открывает PR.
> /delegate complete the API integration tests and fix failing edge cases
Или короче — префикс & перед любым промптом:
> & add pagination to the users endpoint and update OpenAPI spec
Реальный сценарий: ты анализируешь issues в терминале, Copilot через встроенный GitHub MCP-сервер находит связанные баги, а ты делегируешь исправление:
> найди открытые issues с лейблом "bug" в этом репо (Copilot выводит список: #42 — broken auth redirect, #45 — missing validation...) > /delegate Исправь баг из issue #42 и добавь тест
Copilot создаст ветку copilot/fix-42, напишет код, запустит CI. Ты получишь уведомление, когда PR готов к ревью. /resume переключает между локальными и облачными сессиями.
Ни Claude Code, ни OpenCode так не умеют — у них нет облачного бэкенда для фоновых задач. Claude Code работает только локально, OpenAI Codex работает в облаке, но не через терминал — через веб-интерфейс или API.
Модели — выбирай на лету
/model переключает модель прямо в середине сессии:
- Claude Opus 4.6 — для сложных архитектурных задач
- Claude Sonnet 4.6 — дефолтная рабочая лошадка
- Claude Haiku 4.5 — для быстрых мелких задач
- GPT-5.3-Codex — OpenAI-шный кодинг-агент
- Gemini 3 Pro — от Google
По умолчанию стоит Claude Sonnet 4.5. Это важно: по отзывам разработчиков, планы и код на дефолтной модели заметно слабее, чем у Claude Code с Opus 4.6. Один разработчик получил приложение с кучей багов на дефолте Copilot CLI — а аналогичная задача в Claude Code отработала чисто.
Для сравнения: Claude Code по умолчанию использует Opus 4.6 — самую мощную модель на рынке. Copilot CLI экономит на дефолте, но позволяет переключиться. Gemini CLI идёт ещё дальше — автоматически маршрутизирует: простые промпты на Flash (быстрее, дешевле), сложные на Pro.
Практика: ежедневный workflow
Вот как выглядит типичная сессия. Открываешь проект и запускаешь:
copilot
Ревью перед коммитом:
> /review
Copilot анализирует staged и unstaged изменения, подсвечивает проблемы — не стилистику, а реальные баги.
Работа с файлами через @-упоминания:
> Объясни, что делает @config/ci/ci-required-checks.yml > Исправь баг в @src/middleware/auth.ts — токен не обновляется после refresh
Автопилот для рутины:
copilot --autopilot --max-autopilot-continues 10 -p "обнови все зависимости до последних мажорных версий, прогони тесты, пофикси что сломается"
Мониторинг расхода:
> /usage
Показывает, сколько premium requests осталось и сколько сожгла текущая сессия. /context визуализирует заполнение контекстного окна.
Принудительное сжатие:
> /compact
Вместо того чтобы ждать авто-компакции на 95%, можно сжать контекст руками в удобный момент.
Copilot CLI vs Claude Code vs Codex: большое сравнение
Три главных игрока в терминальных AI-агентах решают одну задачу принципиально по-разному.
Философия:
- Copilot CLI — ассистент-оркестратор. Планирует, делегирует в облако, переключает модели. Делает ставку на GitHub-экосистему и workflow
- Claude Code — автономный агент. Один мощный мозг (Opus 4.6), глубокое понимание кодовой базы, 300+ MCP-интеграций. Делает ставку на качество рассуждений
- OpenAI Codex — облачный исполнитель. Работает асинхронно в sandbox, управляется через веб-интерфейс. Делает ставку на безопасность (sandbox изоляция)
Модели и контекст:
- Copilot CLI — 6+ моделей от трёх провайдеров, переключение на лету. Контекст зависит от модели (200K у Claude, до 1M у Gemini)
- Claude Code — только модели Anthropic (Opus 4.6, Sonnet 4.6, Haiku 4.5). Opus 4.6 с контекстом 200K — но с 1M в бете. Зато extended thinking по умолчанию — агент реально думает перед действием
- Codex — GPT-5.3-Codex и o3/o4-mini. Работает в изолированном окружении, видит только то, что ты дал
Ключевое различие в подходе к задачам:
Copilot CLI спросит: "У вас есть ORM? Какой формат курсора предпочитаете?" — и сделает по плану.
Claude Code прочитает весь проект, найдёт, что ты используешь Prisma, увидит существующие паттерны пагинации в соседних файлах, и сделает consistent с остальным кодом — без вопросов, потому что Opus 4.6 набирает 76% на OpenAI BrowseComp (Gemini — 25-35%), что означает сильнейшее на рынке понимание контекста.
Codex создаст ветку в sandbox, напишет код в изоляции, прогонит тесты — и выдаст готовый PR. Ты не видишь процесс, только результат.
Цена за час активной работы:
- Copilot CLI Pro ($10/мес): 300 запросов ≈ 2-3 дня. Дальше — $0.04/запрос. При активном использовании /fleet и Opus — $40-80/мес
- Claude Code Pro ($20/мес): ~10-40 промптов за 5-часовое окно (shared с web). Max ($100/мес) — фактически безлимит для одного разработчика
- Codex: входит в ChatGPT Pro ($20/мес) и Pro+ ($200/мес), плюс API-доступ pay-per-use
- Gemini CLI: бесплатно — 1000 запросов/день с Gemini 2.5 Pro. Самый щедрый free tier на рынке
Память и SDK
Память между сессиями. Copilot запоминает конвенции проекта: через 3-4 сессии он уже знает, что ты используешь snake_case, пишешь тесты в __tests__/, а конфиг хранишь в .env.local. Память привязана к репозиторию и автоматически истекает через 28 дней, если не подтверждается текущим кодом.
Copilot SDK — в technical preview вышел программный доступ к движку Copilot CLI на четырёх языках:
npm install @github/copilot-cli-sdk # Node.js/TypeScript pip install copilot # Python go get github.com/github/copilot-cli-sdk-go # Go # .NET: GitHub.Copilot.SDK через NuGet
Сценарий: встроить Copilot в CI-пайплайн — автоматический code review на каждый PR, генерация changelog, проверка миграций. Multi-turn conversations, tool execution, полный lifecycle control.
Подводные камни
300 запросов сгорают за 2 дня. На Pro ($10/мес) дают 300 premium requests. Каждое обращение к модели — включая промежуточные шаги агента — отдельный запрос. Один /fleet с тремя субагентами сжигает 20-30 запросов за задачу. Пользователи жалуются, что квота кончается к среде. Overage — $0.04 за запрос, и контроля бюджета нет даже на Pro+. Для реальной работы нужен минимум Pro+ за $39 — но и 1500 запросов с /fleet кончаются за неделю.
Autopilot mode = русская рулетка с квотой. Issue #1616: в autopilot mode нет task_complete инструмента. Модель зацикливается и продолжает работать, даже когда задача выполнена. Один пользователь оставил задачу на ночь — проснулся с нулевой квотой. В #1540 субагенты вошли в бесконечный цикл и съели всё. Обязательно используй --max-autopilot-continues с разумным лимитом.
Compaction ломает контекст. Issue #888: при заполнении контекста на 95% запускается автоматическое сжатие. После него LLM забывает исходный запрос. У Claude Code похожая проблема, но там есть workaround через CLAUDE.md. Совет: используй /compact вручную в безопасный момент, а не жди автоматику.
Модельные множители — скрытый tax. Не все запросы равны. Claude Opus 4.6 стоит 5-20× от стандартного запроса. 300 premium requests на Pro — это 300 запросов к Sonnet, но всего 15-60 к Opus. Документация об этом упоминает мелким шрифтом. Переключил модель на Opus через /model — и внезапно одна сессия стоит как весь месяц.
Альтернативы
-
Claude Code — привязан к моделям Anthropic, но качество кода с Opus 4.6 пока лучшее на рынке. $20/мес за Pro (Max — $100/мес с фактически безлимитным использованием). Нет облачной делегации, зато есть параллельные сессии через worktrees, 300+ MCP-интеграций и 14 lifecycle hooks. Главное преимущество — токен-биллинг без искусственных request limits и extended thinking по умолчанию.
-
OpenCode — 108K звёзд, бесплатный, open-source. 75+ провайдеров через Models.dev, включая локальные модели через Ollama. LSP-интеграция, multi-session, zero vendor lock-in. Нет GitHub-интеграции уровня Copilot CLI, нет облачной делегации — но полная свобода выбора моделей и нулевой ценник.
-
Gemini CLI — open-source (Apache 2.0), бесплатно 1000 запросов/день с Gemini 2.5 Pro и 1M контекстным окном. Уникальный PTY-режим для интерактивных команд (vim, git rebase -i). Авто-маршрутизация Flash/Pro. Слабее Claude Code и Copilot CLI в сложных задачах, но для бюджетной разработки и больших monorepo — сильный выбор.
Вердикт
Copilot CLI — самый интегрированный терминальный агент для GitHub-центричных команд. /delegate для облачных задач, нативная работа с issues и PRs, SDK для пайплайнов — этого нет ни у кого. Но 300 запросов на Pro — это ловушка: для активной работы нужен минимум Pro+ за $39, а с Opus — считай все $80-100 в месяц с overage.
Если нужно максимальное качество кода и готов платить $100/мес — Claude Code Max с Opus 4.6 по-прежнему выдаёт лучшие результаты. Если хочешь свободу и нулевой ценник — OpenCode + Ollama. Если живёшь в GitHub ecosystem — Copilot CLI.
Реальная тенденция 2026 года — не победа одного инструмента, а гибридный подход. 29% разработчиков уже запускают несколько агентов одновременно. Copilot CLI для делегации в облако, Claude Code для сложного рефакторинга, Gemini CLI для быстрых задач на бесплатном тире. Терминал стал runtime для AI — и чем больше инструментов ты комбинируешь, тем эффективнее результат.
Как попробовать
- Проверь подписку на github.com/features/copilot/plans — нужен минимум Pro ($10/мес)
- Установи:
curl -fsSL https://gh.io/copilot-install | bash
- Запусти
copilotв директории проекта, авторизуйся, выполни/init - Попробуй plan mode:
Shift+Tab→ "добавь cursor-based пагинацию к endpoint /users" - Переключи модель:
/model claude-opus-4-6— и сравни качество с дефолтом - Делегируй задачу:
& напиши интеграционные тесты для auth модуля и открой PR
Документация: docs.github.com/copilot/how-tos/copilot-cli, репозиторий: github.com/github/copilot-cli