> · 8 мин

Через несколько часов Anthropic покажет Sonnet 4.8 на Code with Claude. Из утечки в их же npm-пакете уже известны все цифры

Через несколько часов Anthropic покажет Sonnet 4.8 на Code with Claude. Из утечки в их же npm-пакете уже известны все цифры

В Сан-Франциско сегодня вечером открывается Code with Claude, первая полноформатная developer-конференция Anthropic с keynote от Бориса Чёрни, главы Claude Code. Ami Vora представит продуктовый roadmap. Анджела Цзян покажет, что нового в API.

Анонс через 9 часов.

Спецификации того, что они объявят, утекли 5 апреля. Из их же npm-пакета.

TL;DR: 31 марта Anthropic случайно выложил cli.js.map внутрь публичного релиза Claude Code, 512 000 строк TypeScript. В коде нашли строку sonnet-4-8 в списке «запрещённых упоминаний», спецификации новой модели (vision 98%, +12 на coding, новый X-high effort), две следующие фичи под кодовыми именами Cardinal и Jupiter, и ещё одну скрытую модель Numbat. Сегодня Anthropic анонсирует половину этого, и интернет уже сверяет с утечкой.

Утечка, которая случилась через одну строку в .npmignore

31 марта 2026 года инженер Anthropic выкатил релиз Claude Code v2.1.88. В пакете @anthropic-ai/claude-code оказался файл cli.js.map весом 59.8 MB. Это source map, который генерируется для дебага и обычно никогда не попадает в продакшн. Кто-то забыл добавить *.map в .npmignore.

Чаофан Шоу, security-исследователь, заметил это в течение часа. К утру 1 апреля код был зеркален на GitHub, набрал тысячи звёзд и был раздёрган reverse-инженерами по нитке.

Борис Чёрни, глава Claude Code, подтвердил в Axios, что это была «plain developer error». Тот самый Чёрни, который сегодня выйдет на сцену в SF и будет рассказывать про новые возможности.

Что нашли в коде.

Sonnet 4.8 в списке «запрещённых строк»

В Claude Code есть фича Undercover Mode. Она включается, когда сотрудники Anthropic пушат в открытые репозитории не-Anthropic. Mode убирает Co-Authored-By из коммитов, блокирует упоминания внутренних Slack-каналов и, главное, запрещает называть невыпущенные модели.

Список запрещённых строк, который нашёл Alex Kim:

  • opus-4-7 (выпущен 16 апреля)
  • sonnet-4-8 (НЕ выпущен)
  • mythos (выпущен 7 апреля как Mythos Preview)
  • capybara (внутренний codename, возможно связан с Mythos)
  • numbat (невыпущенная экспериментальная модель)

Anthropic пропускает цифру 4.7 у Sonnet и переходит сразу к 4.8. Это уже подтверждено их собственным кодом.

Что у 4.8 под капотом

Утечка плюс паттерн «что Sonnet наследует от Opus» дают довольно точную картинку.

Vision accuracy: ~92% → ~98% (+6 пунктов). Opus 4.7 на том же бенчмарке дал 98.5%. Если Sonnet 4.8 повторит, распознавание чартов, скриншотов UI и документов работает на уровне выделенных vision-моделей за $3/$15 за миллион токенов вместо $5/$25 у Opus.

Coding benchmark: +12 пунктов на внутреннем бенче Anthropic. Для контекста: типичный квартальный прирост у моделей 3-5 пунктов. +12, это либо архитектурные изменения, либо скачок в reasoning-механике, а не просто больше данных. На SWE-bench Verified Sonnet 4.6 даёт 79.6%. Если рост пропорционален Opus 4.7, Sonnet 4.8 пробивает 82-84%.

Новый effort level — X-high. Сейчас у Claude есть low/medium/high/max. X-high это дополнительная ступень между high и max. Дольше думает, точнее отвечает, скорее всего отдельно тарифицируется.

Цена: $3 за миллион input, $15 за миллион output. Anthropic держит эту цену с Sonnet 3.5. В этот раз скорее всего тоже.

Hidden cost. Opus 4.7 пришёл с обновлённым токенизатором, который выдаёт 1.0-1.35× больше токенов на тот же контент. Если Sonnet 4.8 получит тот же токенизатор, формальная цена та же, а реальный счёт вырастет на 20-35% на JSON, диффах и markdown. В анонсах об этом Anthropic не пишет.

Cardinal, фича, которую покажут на сцене

Codename Cardinal появился в утечке отдельно от Sonnet. Описание: визуальная аналитика активности и использования памяти. По сути дашборд, где видно, что Claude делал в твоём репо, какие файлы трогал, сколько контекста съел, на чём застрял.

Это решение конкретной боли. Сейчас Claude Code это чёрный ящик. Ты пишешь «сделай X», он что-то делает 40 минут, говорит «готово», и ты не знаешь, что именно происходило. Cardinal должен это починить.

Похоже на claude-hud от Jarrod Watts, open-source плагин, который делает примерно то же, только в терминале. Если Cardinal действительно дашборд, это нативный ответ Anthropic на запрос рынка.

Jupiter, третий codename за неделю

30 апреля в Discord-каналах OpenRouter мелькнул ещё один codename: claude-jupiter. Сначала думали, рандомный слух. Потом оказалось, имя соответствует паттерну, который Anthropic использует для внутренних branch-имён моделей.

Версии:

  • Jupiter и есть Sonnet 4.8 под рабочим именем
  • Jupiter, мост между Sonnet 4.8 и Claude 5, который ожидается летом-осенью (Polymarket даёт 33% на июнь-июль)
  • Jupiter, отдельный экспериментальный variant, вроде Opus 4.7 (Adaptive), который существует параллельно обычному Opus 4.7

Сегодня узнаем.

KAIROS, ещё одна штука, которую могут показать

В коде 190 раз упоминается KAIROS, постоянный фоновый агент. Это демон, который:

  • Каждые 5 минут спрашивает себя «есть ли что-то стоящее сделать прямо сейчас»
  • Ведёт ежедневные append-only логи всего, что заметил и решил
  • Имеет эксклюзивные тулы: PushNotificationTool (пуши на телефон), SendUserFileTool (отправка файлов), SubscribePRTool (подписка на GitHub PR)
  • Использует правило 15 секунд: если задача заблокирует пользователя дольше, откладывает на потом
  • Делает ночной autoDream, чистит наблюдения от противоречий, превращает их в факты

Это автономный агент, который работает пока ты спишь и пушит уведомление, когда что-то сделал. По описанию прямой ответ на OpenAI Codex subagents и Cursor 3 agents window.

Закопан под feature flag, но архитектура полностью построена. Шансы на анонс сегодня средние: Чёрни любит делать одно крупное объявление за раз, а Sonnet 4.8 затмит KAIROS.

Подводные камни

Источник всё ещё Anthropic, и он не нейтрален. Все цифры по vision и coding взяты из внутренних бенчмарков, упомянутых в коде. Независимых замеров нет и не будет до выпуска. «+12 пунктов», от какой базы? В коде не написано. Может от Sonnet 4.6, может от Sonnet 4.5.

Updated tokenizer = тихая прибавка к счёту. Если перейдёшь с Sonnet 4.6 на 4.8 без изменения промптов и кода, счёт может вырасти на 20-35% при той же формальной цене $3/$15. В маркетинге Anthropic об этом не упомянет. Проверяй на своих реальных запросах через Token Counter в Workbench.

X-high может быть отдельным billing tier. В коде пока нет ясного указания, что X-high тарифицируется так же, как high. Логика подсказывает, что за более длинные reasoning chains возьмут больше. Возможно, новый множитель типа 2× от output-цены. Если собираешь агента на X-high effort, заложи это в бюджет.

KAIROS не факт, что выйдет сегодня или вообще скоро. Feature flag в коде это не roadmap. У Anthropic есть 44 невыпущенных feature flag, и большинство из них там сидят месяцами. Tamagotchi-питомец, который «сидит у поля ввода и реагирует на код», тоже в коде есть, но никто его не ждёт.

Утечку обвиняли в фейке. Через сутки появилась статья «We Leaked Nothing: An Exercise in Controlled Chaos», где кто-то в шутку утверждал, что весь leak это April Fools-розыгрыш. Yahoo Fact Check подтвердил: leak настоящий, статья про «controlled chaos» сама фейк. Но шум вокруг подменил часть аналитики.

Альтернативы

GPT-5.5 ($1.25/$10 на chat-эндпоинте, 400K контекст). На 4× дешевле на input, чем Sonnet. На SWE-bench Verified выдаёт 88.7%. Если нужен пайплайн с большим объёмом запросов и допустима чуть худшая интеграция в IDE, GPT-5.5 экономичнее. Но Cursor 3 и Claude Code оба построены вокруг Anthropic, и переход требует миграции тулчейна.

DeepSeek V4 Pro ($0.5/$1.5 за миллион токенов, MIT, 1M контекст). Open weights, можешь self-hostить. По заявлению DeepSeek, в agentic-задачах догоняет Claude Sonnet 4.5 и приближается к Opus 4.5. Независимых замеров на SWE-bench Pro пока мало, но цена в 6-7 раз ниже Sonnet. Проблема: интеграции с IDE-ассистентами хуже, и data residency для российских команд непонятная.

Gemini 3.1 Pro ($1.25/$10, 2M контекст). Выигрывает на длинных контекстах и multimodal. Если обрабатываешь видео или 500-страничные PDF, Gemini сильнее. На обычном кодинге уступает Sonnet и GPT-5.5.

Вердикт

Сегодня вечером Anthropic анонсирует Sonnet 4.8 (95% уверенность), Cardinal (80%), и одну сюрприз-фичу, возможно KAIROS, возможно API-расширения. Если Sonnet 4.8 действительно даст 82-84% на SWE-bench Verified за те же $3/$15, это становится дефолтной моделью для production кодинг-агентов, и переход с 4.6 окупается за пару недель. Если ты сидишь на Opus 4.7 ради качества, пересчитай бюджет: в большинстве случаев Sonnet 4.8 закроет 90% задач за пятую часть цены. Не торопись с миграцией в первые 24 часа: токенизатор v2 даст +20-35% к расходу, это окупаться будет иначе. Прогоняй свои промпты через Workbench перед раскаткой.

Как попробовать

  1. Включи livestream Code with Claude в 17:00 UTC сегодня. Бесплатная регистрация на claude.com/code-with-claude. Если пропустишь, запись будет.
  2. После анонса: проверь, доступна ли модель claude-sonnet-4-8-20260506 (или похожий тег) в API. Anthropic обычно выкатывает в API через несколько часов после keynote.
  3. Запусти токенизатор: прогони 10-20 типичных промптов через свой текущий пайплайн на Sonnet 4.6 и на новом 4.8. Сравни не цены за токен, а реальный счёт. Workbench показывает раскладку.
  4. Если ты на Claude Code: обнови до последней версии (npm update -g @anthropic-ai/claude-code), Sonnet 4.8 обычно появляется в /model через 2-3 часа после API-релиза.
  5. Для KAIROS (если анонсируют): ищи флаг в ~/.claude/settings.json, называться будет вроде experimental.kairos: true. Документация выйдет позже, но включить можно сразу.
$ ls ./related/

Похожие статьи

gnap-git-native-agent-protocol-v2.md
GNAP: оркестрируй рой AI-агентов через git-репо. 4 JSON-файла, ноль серверов
> · 6 мин

GNAP: оркестрируй рой AI-агентов через git-репо. 4 JSON-файла, ноль серверов

Farol Labs предлагает координировать AI-агентов через 4 JSON-файла в git-репо. Без серверов, без баз. Любой агент с git push автоматически в команде. Разбираем GNAP — RFC-черновик git-native оркестрации.

ai agents open-source git
grok-43-release-pricing.md
Grok 4.3 — 53 балла на Intelligence Index, $1.25 за миллион токенов и регрессия в агентах. xAI выкатил модель, пока Маск судится с Altman'ом
> · 9 мин

Grok 4.3 — 53 балла на Intelligence Index, $1.25 за миллион токенов и регрессия в агентах. xAI выкатил модель, пока Маск судится с Altman'ом

xAI выкатил Grok 4.3 — reasoning-модель за $1.25/$2.50 за миллион токенов, на 40-60% дешевле Grok 4.20. Always-on reasoning, миллион токенов контекста и клонирование голоса за минуту. Но в агентских задачах модель «впадает в спячку», в ProofBench выбивает 11%, а отключить размышления нельзя — платишь за reasoning даже на «привет».

llm xai grok ai-models
owl-alpha-stealth-openrouter.md
Owl Alpha — новая stealth-модель на OpenRouter. 1M контекста, $0 за токены, и никто не знает, кто её сделал
> · 8 мин

Owl Alpha — новая stealth-модель на OpenRouter. 1M контекста, $0 за токены, и никто не знает, кто её сделал

Вчера, 30 апреля, на OpenRouter появилась новая stealth-модель Owl Alpha. 1M контекст, бесплатно, заточена под агентные задачи. Никто не знает, кто её сделал. Разбираем спецификации, спекуляции о происхождении (OpenAI? Alibaba? Xiaomi?), как её запустить из Claude Code и подводные камни.

ai agents llm openrouter
subscribe.sh

$ cat /dev/blog/updates

> Свежие заметки о программировании,

> DevOps и AI — прямо в мессенджер

./subscribe