> · 6 мин

Fast mode в Codex CLI включили по умолчанию — 1.5x скорость, 2x кредитов, и никто не предупредил

Fast mode в Codex CLI включили по умолчанию — 1.5x скорость, 2x кредитов, и никто не предупредил

Fast mode в Codex CLI включили по умолчанию — 1.5x скорость, 2x кредитов, и никто не предупредил

5 марта OpenAI выкатили Codex CLI v0.111.0, и в списке изменений между «улучшенным обнаружением плагинов» и «поддержкой изображений» спрятали строчку: «Fast mode is now enabled by default.»

Что это значит на практике: каждый ваш запрос к GPT-5.4 теперь летит через приоритетный канал (service_tier=priority), получает ответ в 1.5 раза быстрее — и сжирает ровно вдвое больше кредитов.

TL;DR: Fast mode в Codex CLI теперь включён по умолчанию. Скорость +50%, расход кредитов ×2. Работает только с GPT-5.4. Отключается командой /fast. Если вы на Plus-тарифе — проверьте прямо сейчас, потому что ваши лимиты могут таять вдвое быстрее.

Что такое fast mode и как он работает

Fast mode — это не другая модель и не урезанная версия GPT-5.4. Это тот же самый GPT-5.4, но с другим приоритетом обработки на серверах OpenAI.

Под капотом всё просто: когда fast mode включён, Codex CLI отправляет запрос с параметром service_tier=priority вместо стандартного auto. Сервер ставит ваш запрос в приоритетную очередь — и вы получаете ответ быстрее за счёт того, что платите больше.

Конкретные цифры по документации OpenAI:

  • Скорость: +50% (1.5x) к стандартному режиму
  • Расход кредитов: ×2 — каждый запрос стоит вдвое дороже
  • Модели: только GPT-5.4
  • Где работает: Codex CLI, IDE Extensions, десктопное приложение

Для сравнения — у Claude Code тоже есть /fast, но работает иначе: ускорение 2.5x, а стоимость токенов ×6 ($30/$150 за миллион токенов). Claude Code честнее — там fast mode не включается по умолчанию, его нужно активировать вручную, и он списывается с extra usage, а не с основного плана.

Почему это важно: Plus-пользователи горят первыми

На Plus-тарифе ($20/мес) у вас есть 33 сообщения GPT-5.4 за 5-часовое окно. С fast mode каждое сообщение стоит 2 кредита вместо одного. Простая арифметика: ваш лимит де-факто сократился до ~16-17 сообщений за то же окно.

На форуме OpenAI и GitHub — десятки жалоб. Люди пишут, что лимиты стали таять в разы быстрее:

  • Один пользователь сообщает: «Один промпт съедает 7% недельного лимита для простого CSS-изменения»
  • Другой подсчитал: «Plus-тариф теперь даёт 5 хороших промптов в неделю»
  • На GitHub пишут: «Квота, которая раньше держалась 2-3 дня, теперь сгорает за 2-3 часа»

OpenAI признали, что часть проблем связана с багом: промо-увеличение лимитов ×2 не применялось для ~9% пользователей Plus и Pro. Баг починили, но жалобы продолжаются — и fast mode по умолчанию явно вносит свою лепту.

Как проверить и отключить

Проверить текущий статус: посмотрите на заголовок сессии в TUI — там отображается «Fast» или «Standard». Если нет индикатора (старая версия) — обновите CLI.

Отключить:

/fast

Всё. Одна команда. Настройка сохраняется между сессиями — не нужно вводить каждый раз.

Если хотите проверить текущее потребление, используйте /status — покажет модель, режим и расход.

Когда fast mode реально нужен

Fast mode не бесполезен. 50% ускорение ощущается, особенно на интерактивной работе.

Оставляйте включённым, если:

  • Отлаживаете баг в реальном времени и каждая секунда ожидания сбивает фокус
  • Итерируете быстро — правка → проверка → правка → проверка
  • Вы на Pro-тарифе ($200/мес) с 6x лимитами, и 2x расход не критичен

Выключайте, если:

  • Вы на Plus ($20/мес) и считаете каждый промпт
  • Задача автономная — запустили агента, ушли пить кофе, скорость ответа не важна
  • Работаете через CI/CD или batch-обработку
  • Используете GPT-5.3-Codex или GPT-5.1-Codex-Mini — fast mode на них вообще не работает, так что он просто игнорируется

Подводные камни

1. Вы уже в fast mode и не знаете об этом. С 5 марта fast mode включён по умолчанию в Codex CLI v0.111.0. Если вы обновили CLI, ваши запросы уже идут через приоритетный канал. Старые версии CLI этого не делали — так что обновление удваивает расход без предупреждения.

2. Настройка персистентная. Если вы включили /fast один раз — он останется включённым во всех будущих сессиях. Это работает и в обратную сторону: отключили — останется выключенным. Но для новых установок (с v0.111.0) дефолт — включён.

3. Баги в учёте кредитов накладываются на fast mode. OpenAI признали проблемы с учётом лимитов в начале марта. Если ваши кредиты горят подозрительно быстро, это может быть комбинация fast mode + баг в метриках. Отключите fast mode и понаблюдайте — если расход всё ещё аномальный, заведите issue на GitHub.

4. Fallback не гарантирован. Когда приоритетная очередь перегружена, Codex должен откатиться на стандартный режим. Но по отзывам пользователей, иногда запросы просто зависают — модель уходит в «thinking mode» на минуты.

5. Claude Code fast mode — другая история. Не путайте: у Claude Code /fast даёт ×2.5 скорости, но стоит ×6 по токенам и списывается с extra usage, а не с основного плана. Плюс — он не включён по умолчанию, его нужно активировать осознанно. Две разные философии: OpenAI включили тихо, Anthropic требуют явного согласия.

Вердикт

Fast mode — полезная фича для интерактивной работы, но включать его по умолчанию без заметного предупреждения — сомнительное решение. Для Plus-пользователей ($20/мес) это фактически означает сокращение лимитов вдвое. Первое, что стоит сделать после обновления Codex CLI до v0.111.0 — набрать /fast и отключить режим. Включайте его вручную только когда скорость действительно важнее экономии.

Как попробовать

  1. Обновите Codex CLI до последней версии: npm install -g @openai/codex@latest
  2. Проверьте текущий режим — в заголовке сессии TUI будет «Fast» или «Standard»
  3. Отключите fast mode, если не нужен: /fast
  4. Попробуйте поработать день в standard mode и сравните расход через /status
  5. Если хотите fast mode для конкретной задачи — включите /fast, поработайте, отключите обратно

Документация: Codex Speed · Codex Pricing · Codex Changelog

$ ls ./related/

Похожие статьи

subscribe.sh

$ cat /dev/blog/updates

> Свежие заметки о программировании,

> DevOps и AI — прямо в мессенджер

./subscribe