> · 7 мин

GPT-5.4 mini и nano — mini кодит почти как флагман, nano описывает 76 000 фотографий за $52, а цены выросли втрое

GPT-5.4 mini и nano — mini кодит почти как флагман, nano описывает 76 000 фотографий за $52, а цены выросли втрое

GPT-5.4 mini и nano — mini кодит почти как флагман, nano описывает 76 000 фотографий за $52, а цены выросли втрое

OpenAI две недели назад выкатила флагманскую GPT-5.4 — миллион токенов контекста, computer use, плагины для Excel. Теперь пришла очередь маленьких моделей: GPT-5.4 mini и nano.

И тут начинается самое интересное. Не потому что модели быстрые (они быстрые). И не потому что дешёвые (тут как раз спорно). А потому что OpenAI прямым текстом говорит: хватит гонять флагман на каждый чих. Стройте архитектуру, где GPT-5.4 планирует, а mini-модели параллельно выполняют подзадачи.

TL;DR: GPT-5.4 mini — $0.75 за миллион входных токенов, 54.4% на SWE-Bench Pro (почти как флагман — 57.7%), 2x быстрее GPT-5 mini. Nano — $0.20 за миллион токенов, заточен под классификацию и извлечение данных. Но цены выросли в 3-4 раза по сравнению с GPT-5 mini/nano. И на длинном контексте mini сильно проседает — 47.7% против 86.0% у флагмана.

Mini: 30% цены флагмана, 95% качества на кодинге

Главная цифра — 54.4% на SWE-Bench Pro. Для сравнения: полная GPT-5.4 набирает 57.7%, а предыдущий GPT-5 mini — 45.7%. То есть mini нового поколения ближе к флагману, чем к своему предшественнику. Разрыв всего 3.3 процентных пункта.

Но по-настоящему впечатляет другое — computer use. На OSWorld-Verified (бенчмарк управления компьютером) mini набирает 72.1% против 42.0% у GPT-5 mini. Это не инкрементальное улучшение — это скачок в 1.7 раза. Полная GPT-5.4 тут набирает 75.0%, так что mini практически не уступает.

Ещё несколько цифр, которые показывают масштаб прогресса:

  • Toolathlon (работа с инструментами) — 42.9% против 26.9% у GPT-5 mini
  • Telecom tau2-bench — 93.4% против 74.1%
  • MCP Atlas (работа с MCP-инструментами) — 57.7% против 47.6%
  • GPQA Diamond (научные вопросы) — 88.0% против 81.6%

При этом mini работает в 2+ раза быстрее GPT-5 mini. Контекстное окно — 400K токенов. Цена — $0.75 за миллион входных и $4.50 за миллион выходных токенов.

В Codex CLI mini тратит только 30% квоты от полной GPT-5.4 — а значит, за ту же подписку можно прогнать втрое больше задач.

Nano: самая дешёвая модель линейки

GPT-5.4 nano — это модель для задач, где не нужны мозги, но нужна скорость и низкая цена. Классификация, извлечение данных, ранжирование, простые подзадачи в агентских пайплайнах.

$0.20 за миллион входных токенов, $1.25 за выходные. Дешевле, чем Gemini 3.1 Flash-Lite ($0.25/$1.50). А с кешированием — $0.02 за миллион, то есть практически бесплатно.

Саймон Уиллисон посчитал: описать 76 000 фотографий с nano обойдётся в $52. Это 0.069 центов за одно фото — дешевле, чем электричество на его обработку.

На SWE-Bench Pro nano набирает 52.4% — и это выше, чем у предыдущего GPT-5 mini (45.7%). То есть нынешний nano на кодинге сильнее прошлого mini.

Но есть нюанс: на OSWorld nano проседает до 39.0% — это ниже, чем GPT-5 mini (42.0%). Единственный бенчмарк, где nano не бьёт предшественника. Computer use — не его сильная сторона.

Nano доступен только через API — в ChatGPT его нет.

Архитектура "один планирует — десять выполняют"

OpenAI больше не скрывает, куда движется: мульти-модельная архитектура. Флагманская GPT-5.4 работает как координатор — анализирует задачу, разбивает на подзадачи, планирует. А mini-модели параллельно выполняют: ищут по кодовой базе, анализируют файлы, обрабатывают документы.

Так уже работает Codex. Так же устроены субагенты в Codex CLI, которые вчера вышли из превью. И GitHub Copilot уже подключил GPT-5.4 mini — с множителем 0.33x на premium-запросы.

Для тех, кто строит свои агентские пайплайны через API, это прямое руководство к действию: роутинг между моделями теперь не оптимизация, а архитектурный паттерн. Nano классифицирует и фильтрует, mini выполняет подзадачи, флагман принимает решения.

Слон в комнате: цены выросли в 3-4 раза

А теперь неприятная часть.

GPT-5 mini стоил $0.25 за миллион входных токенов. GPT-5.4 mini стоит $0.75 — ровно в 3 раза дороже. На выходе рост с $2.00 до $4.50 — в 2.25 раза.

С nano ещё хуже. GPT-5 nano стоил $0.05 за вход. GPT-5.4 nano — $0.20в 4 раза дороже.

The Decoder прямо пишет: "faster and more capable, but up to 4x pricier". OpenAI оправдывает это ростом качества — и формально они правы, бенчмарки действительно выше. Но для тех, кто выбирал mini/nano именно из-за дешевизны, это болезненный апгрейд.

Есть и ещё один подвох: после 272K входных токенов цена удваивается — $1.50 за миллион на входе и $6.75 на выходе для mini. Контекстное окно 400K, но последние 128K токенов стоят в два раза больше. Если гоняете большие кодовые базы, бюджет может улететь неожиданно.

Подводные камни

Длинный контекст — ахиллесова пята mini. На OpenAI MRCR v2 (8 иголок, 64-128K контекст) mini набирает 47.7%, а флагман — 86.0%. Это не мелкая разница — mini теряет почти половину информации на длинных документах. Если задача требует отслеживания множества деталей через весь контекст — mini не подходит, нужен полный GPT-5.4.

Нестабильность на temperature 0. Разработчики жалуются на Hacker News, что при temperature 0 mini иногда даёт правильный ответ, иногда неправильный — на один и тот же промпт. Для детерминированных пайплайнов (парсинг данных, классификация) это проблема.

Скрытые reasoning traces. OpenAI показывает только саммари рассуждений, а не полную цепочку. Когда модель ошибается — дебажить нечего. Claude и Gemini тоже не идеальны в этом, но хотя бы extended thinking у Claude показывает полный ход мыслей.

Frontend-генерация слабая. Ни mini, ни nano не показывают хороших результатов на генерации фронтенд-кода. Если нужен UI — лучше смотреть в сторону Claude Sonnet или специализированных инструментов вроде v0.

254 секунды на задачу SWE-Bench. Несмотря на заявленное ускорение в 2x, абсолютные числа всё ещё высокие. Для real-time агентов и голосовых помощников латенси mini не подходит.

Альтернативы

  • Claude Sonnet 4.6 — $3/$15 за миллион токенов, 79.6% на SWE-Bench. В 4 раза дороже mini на входе, но на кодинге значительно сильнее. Для сложных задач — лучший выбор в mid-tier сегменте. Плюс extended thinking показывает полную цепочку рассуждений, что упрощает дебаг.

  • Gemini 3.1 Flash-Lite — $0.25/$1.50, миллион токенов контекста. Дешевле nano по выходу, но дороже по входу. Поддерживает аудио и видео нативно — чего нет ни у OpenAI, ни у Anthropic. Для мультимодальных задач на потоке — прямой конкурент nano.

  • Gemini 3 Flash — $0.50/$3.00, 78% на SWE-Bench. Дешевле mini, качественнее на кодинге, плюс нативная мультимодальность. Если не привязаны к экосистеме OpenAI — сильная альтернатива mini.

Вердикт

Если строишь мульти-агентную систему на API OpenAI — mini станет рабочей лошадкой для подзадач: tool calling, поиск по коду, анализ файлов. Разница с флагманом на этих задачах минимальна, а стоимость — 30% от GPT-5.4. Nano — для high-volume классификации и фильтрации, где $0.02 за миллион кешированных токенов делает обработку практически бесплатной.

Но если ваш пайплайн завязан на длинный контекст — mini не заменит флагман, провал с 86% до 47.7% на MRCR это наглядно показывает. А если бюджет — главный фактор, Gemini 3 Flash даёт лучшее соотношение цены и качества на кодинге.

Как попробовать

  1. API: модели gpt-5.4-mini и gpt-5.4-nano уже доступны через OpenAI API. Работают со всеми существующими эндпоинтами, включая Responses API.

  2. ChatGPT: mini доступен для Free и Go пользователей через режим Thinking. Nano — только API.

  3. Codex CLI: переключить модель:

codex --model gpt-5.4-mini

Mini тратит 0.33x от premium-квоты.

  1. GitHub Copilot: GPT-5.4 mini доступен через model picker в VS Code, JetBrains и GitHub CLI. Администраторам Enterprise/Business нужно включить модель в настройках Copilot.

  2. Попробуйте мульти-модельную архитектуру: отправьте сложную задачу на GPT-5.4, а подзадачи раскидайте по mini с параллельными запросами — именно так OpenAI рекомендует использовать эти модели.

$ ls ./related/

Похожие статьи

subscribe.sh

$ cat /dev/blog/updates

> Свежие заметки о программировании,

> DevOps и AI — прямо в мессенджер

./subscribe