> · 12 мин

GitHub Copilot CLI вышел из превью — plan mode, субагенты и ловушка на 300 запросов

GitHub Copilot CLI вышел из превью — plan mode, субагенты и ловушка на 300 запросов

GitHub Copilot CLI вышел из превью — plan mode, субагенты и ловушка на 300 запросов

GitHub наконец снял ярлык "preview" со своего терминального AI-агента. С 25 февраля Copilot CLI доступен всем, у кого есть платная подписка Copilot — от Pro за $10 до Enterprise. Полгода в preview, 418 релизов, 8.8K звёзд на GitHub — и теперь это полноценный GA-продукт.

TL;DR: Copilot CLI — терминальный AI-агент от GitHub с plan mode, параллельными субагентами (/fleet), делегированием задач в облако (/delegate) и памятью между сессиями. Работает с Claude Opus 4.6, GPT-5.3-Codex и Gemini 3 Pro. Но 300 premium-запросов на Pro-плане сгорают за 2 дня активной работы, а autopilot mode может сожрать всю квоту за ночь.

Терминальный ренессанс

Год назад разговор был "Copilot vs Cursor". Сейчас в поле 15+ серьёзных CLI-агентов, и каждый делает свою ставку. По опросу Faros AI среди 99 профессиональных разработчиков в январе 2026: 59% используют Claude Code, 52% — Cursor, 29% запускают несколько агентов одновременно. Терминал перестал быть местом, где запускают команды — это площадка, где AI-агенты получают доступ к кодовой базе, git-истории и твоему замыслу.

GitHub со своим Copilot CLI вступает в эту гонку с козырем, которого нет у остальных — нативная интеграция с крупнейшим хостингом кода в мире. Issues, pull requests, Actions, coding agent в облаке — всё доступно через slash-команды, не покидая терминала.

Установка — одна строка

curl -fsSL https://gh.io/copilot-install | bash

Или через пакетные менеджеры:

brew install copilot-cli      # macOS
winget install GitHub.Copilot  # Windows
npm install -g @github/copilot # npm

После запуска copilot и авторизации через GitHub — /init проанализирует проект и создаст базовый конфиг. Кастомные инструкции живут в .github/copilot-instructions.md — аналог CLAUDE.md у Claude Code.

Plan mode — сначала думай, потом коди

Shift+Tab переключает в plan mode. Copilot не бросается сразу писать код — он анализирует запрос, задаёт уточняющие вопросы и строит пошаговый план.

Допустим, ты пишешь:

> добавь пагинацию к API /users с cursor-based подходом

В plan mode Copilot:

  1. Спросит: "Используете ли вы уже какую-то ORM? Есть ли предпочтение по формату курсора — opaque ID или timestamp?"
  2. Покажет план: "Изменю src/routes/users.ts, добавлю src/utils/pagination.ts, обновлю тесты в __tests__/users.test.ts"
  3. Ждёт одобрения — одобрил, он выполняет, не одобрил — переделывает

Copilot CLI plan mode

Для сравнения: у Claude Code планирование — это конвенция сообщества. Ты пишешь plan.md, описываешь в CLAUDE.md правило "не пиши код без плана", используешь скиллы вроде Superpowers. У Copilot CLI plan mode — встроенный UI с визуальным деревом задач. Claude Code гибче и позволяет любой формат планирования, Copilot CLI — нагляднее и не требует настройки.

/fleet — параллельные субагенты

/fleet запускает несколько субагентов одновременно на одну задачу. Каждый работает в своём контексте, результаты сходятся в один итог:

> /fleet refactor auth module, update tests, fix lint errors

Три субагента — три задачи параллельно. Каждый отчитывается, ты одобряешь или правишь. Copilot также автоматически делегирует работу специализированным агентам:

  • Explore — быстрый анализ кодовой базы без засорения основного контекста
  • Task — запуск билдов и тестов (краткий отчёт при успехе, полный вывод при ошибке)
  • Code Review — анализ изменений с фокусом на реальных проблемах, а не стилистике
  • Plan — создание планов через анализ зависимостей и структуры

У Claude Code аналог — Agent Teams с до 7 параллельными субагентами. Разница: Claude Code позволяет запустить несколько экземпляров через git worktrees — физически разные рабочие директории, ноль конфликтов. У Copilot CLI субагенты живут внутри одного процесса с shared контекстом.

/delegate — отдай задачу в облако

Самая интересная фича для GitHub-центричных команд. /delegate перебрасывает текущую задачу из терминала в облачный Copilot coding agent — он работает в GitHub Actions, создаёт ветку, пишет код, прогоняет CI и открывает PR.

> /delegate complete the API integration tests and fix failing edge cases

Или короче — префикс & перед любым промптом:

> & add pagination to the users endpoint and update OpenAPI spec

Реальный сценарий: ты анализируешь issues в терминале, Copilot через встроенный GitHub MCP-сервер находит связанные баги, а ты делегируешь исправление:

> найди открытые issues с лейблом "bug" в этом репо
(Copilot выводит список: #42 — broken auth redirect, #45 — missing validation...)
> /delegate Исправь баг из issue #42 и добавь тест

Copilot создаст ветку copilot/fix-42, напишет код, запустит CI. Ты получишь уведомление, когда PR готов к ревью. /resume переключает между локальными и облачными сессиями.

Ни Claude Code, ни OpenCode так не умеют — у них нет облачного бэкенда для фоновых задач. Claude Code работает только локально, OpenAI Codex работает в облаке, но не через терминал — через веб-интерфейс или API.

Модели — выбирай на лету

/model переключает модель прямо в середине сессии:

  • Claude Opus 4.6 — для сложных архитектурных задач
  • Claude Sonnet 4.6 — дефолтная рабочая лошадка
  • Claude Haiku 4.5 — для быстрых мелких задач
  • GPT-5.3-Codex — OpenAI-шный кодинг-агент
  • Gemini 3 Pro — от Google

По умолчанию стоит Claude Sonnet 4.5. Это важно: по отзывам разработчиков, планы и код на дефолтной модели заметно слабее, чем у Claude Code с Opus 4.6. Один разработчик получил приложение с кучей багов на дефолте Copilot CLI — а аналогичная задача в Claude Code отработала чисто.

Для сравнения: Claude Code по умолчанию использует Opus 4.6 — самую мощную модель на рынке. Copilot CLI экономит на дефолте, но позволяет переключиться. Gemini CLI идёт ещё дальше — автоматически маршрутизирует: простые промпты на Flash (быстрее, дешевле), сложные на Pro.

Практика: ежедневный workflow

Вот как выглядит типичная сессия. Открываешь проект и запускаешь:

copilot

Ревью перед коммитом:

> /review

Copilot анализирует staged и unstaged изменения, подсвечивает проблемы — не стилистику, а реальные баги.

Работа с файлами через @-упоминания:

> Объясни, что делает @config/ci/ci-required-checks.yml
> Исправь баг в @src/middleware/auth.ts — токен не обновляется после refresh

Автопилот для рутины:

copilot --autopilot --max-autopilot-continues 10 -p "обнови все зависимости до последних мажорных версий, прогони тесты, пофикси что сломается"

Мониторинг расхода:

> /usage

Показывает, сколько premium requests осталось и сколько сожгла текущая сессия. /context визуализирует заполнение контекстного окна.

Принудительное сжатие:

> /compact

Вместо того чтобы ждать авто-компакции на 95%, можно сжать контекст руками в удобный момент.

Copilot CLI vs Claude Code vs Codex: большое сравнение

Три главных игрока в терминальных AI-агентах решают одну задачу принципиально по-разному.

Философия:

  • Copilot CLI — ассистент-оркестратор. Планирует, делегирует в облако, переключает модели. Делает ставку на GitHub-экосистему и workflow
  • Claude Code — автономный агент. Один мощный мозг (Opus 4.6), глубокое понимание кодовой базы, 300+ MCP-интеграций. Делает ставку на качество рассуждений
  • OpenAI Codex — облачный исполнитель. Работает асинхронно в sandbox, управляется через веб-интерфейс. Делает ставку на безопасность (sandbox изоляция)

Модели и контекст:

  • Copilot CLI — 6+ моделей от трёх провайдеров, переключение на лету. Контекст зависит от модели (200K у Claude, до 1M у Gemini)
  • Claude Code — только модели Anthropic (Opus 4.6, Sonnet 4.6, Haiku 4.5). Opus 4.6 с контекстом 200K — но с 1M в бете. Зато extended thinking по умолчанию — агент реально думает перед действием
  • Codex — GPT-5.3-Codex и o3/o4-mini. Работает в изолированном окружении, видит только то, что ты дал

Ключевое различие в подходе к задачам:

Copilot CLI спросит: "У вас есть ORM? Какой формат курсора предпочитаете?" — и сделает по плану.

Claude Code прочитает весь проект, найдёт, что ты используешь Prisma, увидит существующие паттерны пагинации в соседних файлах, и сделает consistent с остальным кодом — без вопросов, потому что Opus 4.6 набирает 76% на OpenAI BrowseComp (Gemini — 25-35%), что означает сильнейшее на рынке понимание контекста.

Codex создаст ветку в sandbox, напишет код в изоляции, прогонит тесты — и выдаст готовый PR. Ты не видишь процесс, только результат.

Цена за час активной работы:

  • Copilot CLI Pro ($10/мес): 300 запросов ≈ 2-3 дня. Дальше — $0.04/запрос. При активном использовании /fleet и Opus — $40-80/мес
  • Claude Code Pro ($20/мес): ~10-40 промптов за 5-часовое окно (shared с web). Max ($100/мес) — фактически безлимит для одного разработчика
  • Codex: входит в ChatGPT Pro ($20/мес) и Pro+ ($200/мес), плюс API-доступ pay-per-use
  • Gemini CLI: бесплатно — 1000 запросов/день с Gemini 2.5 Pro. Самый щедрый free tier на рынке

Память и SDK

Память между сессиями. Copilot запоминает конвенции проекта: через 3-4 сессии он уже знает, что ты используешь snake_case, пишешь тесты в __tests__/, а конфиг хранишь в .env.local. Память привязана к репозиторию и автоматически истекает через 28 дней, если не подтверждается текущим кодом.

Copilot SDK — в technical preview вышел программный доступ к движку Copilot CLI на четырёх языках:

npm install @github/copilot-cli-sdk  # Node.js/TypeScript
pip install copilot                   # Python
go get github.com/github/copilot-cli-sdk-go  # Go
# .NET: GitHub.Copilot.SDK через NuGet

Сценарий: встроить Copilot в CI-пайплайн — автоматический code review на каждый PR, генерация changelog, проверка миграций. Multi-turn conversations, tool execution, полный lifecycle control.

Подводные камни

300 запросов сгорают за 2 дня. На Pro ($10/мес) дают 300 premium requests. Каждое обращение к модели — включая промежуточные шаги агента — отдельный запрос. Один /fleet с тремя субагентами сжигает 20-30 запросов за задачу. Пользователи жалуются, что квота кончается к среде. Overage — $0.04 за запрос, и контроля бюджета нет даже на Pro+. Для реальной работы нужен минимум Pro+ за $39 — но и 1500 запросов с /fleet кончаются за неделю.

Autopilot mode = русская рулетка с квотой. Issue #1616: в autopilot mode нет task_complete инструмента. Модель зацикливается и продолжает работать, даже когда задача выполнена. Один пользователь оставил задачу на ночь — проснулся с нулевой квотой. В #1540 субагенты вошли в бесконечный цикл и съели всё. Обязательно используй --max-autopilot-continues с разумным лимитом.

Compaction ломает контекст. Issue #888: при заполнении контекста на 95% запускается автоматическое сжатие. После него LLM забывает исходный запрос. У Claude Code похожая проблема, но там есть workaround через CLAUDE.md. Совет: используй /compact вручную в безопасный момент, а не жди автоматику.

Модельные множители — скрытый tax. Не все запросы равны. Claude Opus 4.6 стоит 5-20× от стандартного запроса. 300 premium requests на Pro — это 300 запросов к Sonnet, но всего 15-60 к Opus. Документация об этом упоминает мелким шрифтом. Переключил модель на Opus через /model — и внезапно одна сессия стоит как весь месяц.

Альтернативы

  • Claude Code — привязан к моделям Anthropic, но качество кода с Opus 4.6 пока лучшее на рынке. $20/мес за Pro (Max — $100/мес с фактически безлимитным использованием). Нет облачной делегации, зато есть параллельные сессии через worktrees, 300+ MCP-интеграций и 14 lifecycle hooks. Главное преимущество — токен-биллинг без искусственных request limits и extended thinking по умолчанию.

  • OpenCode — 108K звёзд, бесплатный, open-source. 75+ провайдеров через Models.dev, включая локальные модели через Ollama. LSP-интеграция, multi-session, zero vendor lock-in. Нет GitHub-интеграции уровня Copilot CLI, нет облачной делегации — но полная свобода выбора моделей и нулевой ценник.

  • Gemini CLI — open-source (Apache 2.0), бесплатно 1000 запросов/день с Gemini 2.5 Pro и 1M контекстным окном. Уникальный PTY-режим для интерактивных команд (vim, git rebase -i). Авто-маршрутизация Flash/Pro. Слабее Claude Code и Copilot CLI в сложных задачах, но для бюджетной разработки и больших monorepo — сильный выбор.

Вердикт

Copilot CLI — самый интегрированный терминальный агент для GitHub-центричных команд. /delegate для облачных задач, нативная работа с issues и PRs, SDK для пайплайнов — этого нет ни у кого. Но 300 запросов на Pro — это ловушка: для активной работы нужен минимум Pro+ за $39, а с Opus — считай все $80-100 в месяц с overage.

Если нужно максимальное качество кода и готов платить $100/мес — Claude Code Max с Opus 4.6 по-прежнему выдаёт лучшие результаты. Если хочешь свободу и нулевой ценник — OpenCode + Ollama. Если живёшь в GitHub ecosystem — Copilot CLI.

Реальная тенденция 2026 года — не победа одного инструмента, а гибридный подход. 29% разработчиков уже запускают несколько агентов одновременно. Copilot CLI для делегации в облако, Claude Code для сложного рефакторинга, Gemini CLI для быстрых задач на бесплатном тире. Терминал стал runtime для AI — и чем больше инструментов ты комбинируешь, тем эффективнее результат.

Как попробовать

  1. Проверь подписку на github.com/features/copilot/plans — нужен минимум Pro ($10/мес)
  2. Установи:
curl -fsSL https://gh.io/copilot-install | bash
  1. Запусти copilot в директории проекта, авторизуйся, выполни /init
  2. Попробуй plan mode: Shift+Tab → "добавь cursor-based пагинацию к endpoint /users"
  3. Переключи модель: /model claude-opus-4-6 — и сравни качество с дефолтом
  4. Делегируй задачу: & напиши интеграционные тесты для auth модуля и открой PR

Документация: docs.github.com/copilot/how-tos/copilot-cli, репозиторий: github.com/github/copilot-cli

$ ls ./related/

Похожие статьи

subscribe.sh

$ cat /dev/blog/updates

> Свежие заметки о программировании,

> DevOps и AI — прямо в мессенджер

./subscribe