> · 8 мин

Claude Managed Agents — $0.08 в час за инфраструктуру, которую вы строили бы три месяца

Claude Managed Agents — $0.08 в час за инфраструктуру, которую вы строили бы три месяца

Claude Managed Agents — $0.08 в час за инфраструктуру, которую вы строили бы три месяца

TL;DR: Anthropic запустила Claude Managed Agents: облачная инфраструктура для продакшен-агентов. Описываете агента (текстом или YAML), задаёте инструменты и ограничения, всё остальное поднимается автоматически. Стоимость: стандартные токены API + $0.08 за час активного runtime. Мульти-агентная оркестрация пока в research preview.

8 апреля Anthropic перестала быть просто продавцом моделей. Claude Managed Agents принимает описание агента, поднимает облачное окружение, изолирует выполнение кода, хранит credentials отдельно от песочницы и логирует каждое действие. Notion, Rakuten, Asana и Sentry уже подключились. Запуск продакшен-агента сокращается с месяцев до дней, если верить Anthropic.

Зачем вообще managed-сервис? Любой, кто пытался вывести AI-агента в продакшен, знает этот список: sandbox для безопасного исполнения кода, checkpoint'ы на случай обрыва сети, credential management с изоляцией от prompt injection, scoped permissions, end-to-end трейсинг. Ничего из этого не интересно. Всё это необходимо. И на это уходят месяцы.

Архитектура: мозг отдельно, руки отдельно

Самое интересное в Managed Agents не "что", а "как". Anthropic разделила агента на три независимых компонента:

  • Brain (мозг): Claude + harness (логика tool-вызовов и контекст-менеджмент)
  • Hands (руки): sandbox, где агент выполняет код и редактирует файлы
  • Session (журнал): append-only лог событий, живёт отдельно от первых двух

Каждый компонент может упасть и подняться заново. Если sandbox умирает, harness перехватывает ошибку как обычный tool-call failure. Если падает сам harness, новый экземпляр стартует по wake(sessionId), считывает журнал через getSession(id) и продолжает с последнего события. Контейнер стал "скотом" вместо "питомца" (pets vs cattle в терминологии Anthropic): потерять не жалко, поднять дёшево.

Раньше всё жило в одном контейнере. Контейнер падал, сессия терялась. Для отладки приходилось открывать shell внутри, но в нём лежали данные пользователя. Отладить нельзя, потерять можно. Замкнутый круг.

Разделение дало конкретный результат: time-to-first-token (TTFT) упал на 60% для p50 и более чем на 90% для p95 (по данным Anthropic, независимых замеров пока нет). Раньше каждая сессия ждала поднятия контейнера, клонирования репо и запуска окружения. Теперь inference стартует моментально, а контейнер поднимается только когда агент впервые вызывает инструмент.

Архитектура масштабируется в обе стороны: несколько brain'ов подключаются к одним hands, один brain управляет несколькими sandbox'ами. Интерфейс одинаковый: execute(name, input) → string. Harness'у всё равно, sandbox это контейнер, телефон или эмулятор Покемонов (да, Anthropic буквально написала это в своём инженерном блоге).

Credentials вне песочницы

После утечки исходников Claude Code тема безопасности credentials звучит особенно остро. В старой архитектуре токены лежали в том же контейнере, где Claude генерировал и запускал код. Prompt injection мог прочитать переменные окружения.

В Managed Agents credentials хранятся в Vaults, отдельном хранилище за пределами sandbox. Git-токен подставляется при клонировании репо и прописывается в git remote, но агенту напрямую недоступен. MCP-инструменты вызываются через прокси: агент отправляет запрос, прокси достаёт credentials из Vault, делает вызов к внешнему сервису и возвращает результат. Claude не видит ни одного токена.

# Vault для конечного пользователя
vault = client.beta.vaults.create(
    display_name="Production user",
    metadata={"internal_user_id": "u_001"}
)

# Привязываем credential к MCP-серверу
credential = client.beta.vaults.credentials.create(
    vault_id=vault.id,
    display_name="GitHub",
    auth={
        "type": "static_bearer",
        "mcp_server_url": "https://api.githubcopilot.com/mcp/",
        "token": GITHUB_TOKEN  # хранится в Vault, агент не видит
    }
)

# Создаём сессию — агент получает доступ без прямого контакта с токеном
session = client.beta.sessions.create(
    environment_id=env.id,
    agent={"type": "agent", "id": agent.id, "version": agent.version},
    vault_ids=[vault.id]
)

Аудит привязан к vault'у: всегда ясно, от имени какого пользователя агент действовал.

Что видит разработчик

Четыре сущности, четыре API-вызова:

  • Agent: модель + system prompt + инструменты. Создаётся один раз, версионируется. Каждый update() увеличивает версию, конкурентные обновления блокируются
  • Environment: шаблон контейнера. Какие pip-пакеты установить, какой уровень сети (unrestricted или allowlist)
  • Session: запущенный агент в окружении. Сюда монтируются файлы, сюда отправляются сообщения
  • Events: поток между приложением и агентом. SSE для real-time, webhook'и для продакшена

Минимальный пример из официального cookbook'а. Агент-аналитик получает CSV и возвращает HTML-отчёт с plotly-графиками:

from anthropic import Anthropic
client = Anthropic()

# Окружение с pandas и plotly
env = client.beta.environments.create(
    name="analyst-env",
    config={
        "type": "cloud",
        "networking": {"type": "unrestricted"},
        "packages": {"type": "packages", "pip": ["pandas", "plotly"]}
    }
)

# Агент: 8 инструментов (bash, read, write, edit, glob, grep, web_fetch, web_search)
agent = client.beta.agents.create(
    name="data-analyst",
    model="claude-sonnet-4-6",
    system="You are a senior data analyst producing publication-quality reports...",
    tools=[{
        "type": "agent_toolset_20260401",
        "default_config": {"enabled": True, "permission_policy": {"type": "always_allow"}},
        "configs": [
            {"name": "web_search", "enabled": False},
            {"name": "web_fetch", "enabled": False}
        ]
    }]
)

# Загружаем CSV, создаём сессию, отправляем задачу
with open("sales.csv", "rb") as f:
    dataset = client.beta.files.upload(file=("sales.csv", f, "text/csv"))

session = client.beta.sessions.create(
    environment_id=env.id,
    agent={"type": "agent", "id": agent.id, "version": agent.version},
    resources=[{
        "type": "file",
        "file_id": dataset.id,
        "mount_path": "/mnt/session/uploads/sales.csv"
    }]
)

client.beta.sessions.events.send(session.id, events=[
    {"type": "user.message", "content": [
        {"type": "text", "text": "Проанализируй этот CSV: revenue по категориям, повторные клиенты, аномалии."}
    ]}
])

Агент запускается в облаке, пишет Python-скрипты, генерирует plotly-графики и сохраняет report.html в /mnt/session/outputs/. Забираете результат через Files API. Весь процесс занимает несколько минут.

Кто уже запустился

  • Notion встроила Claude в рабочие пространства через Custom Agents (пока закрытая альфа). Инженеры кодят, остальные генерируют презентации и внутренние сайты
  • Rakuten за неделю развернула агентов в продажах, маркетинге, финансах и HR. Агенты подключены к Slack и Teams, отдают готовые таблицы
  • Asana сделала AI Teammates: агенты работают рядом с людьми внутри проектных задач
  • Sentry скрестила свой дебаг-агент Seer с агентом на Claude, который пишет патчи и открывает PR'ы

Объединяет все кейсы одно: это не чат-боты. Это агенты, которые работают с реальными системами (Git, Slack, Jira) и возвращают артефакты: файлы, отчёты, pull request'ы.

Цены: дёшево, пока агентов мало

  • Токены модели: стандартный прайс Claude API. Sonnet 4.6 стоит $3/$15 за 1M in/out, Opus 4.6 обойдётся в $5/$25
  • Активный runtime: $0.08/час, тарификация посекундная. Время простоя (ожидание ввода или ответа инструмента) бесплатно
  • Web search: $10 за 1000 запросов

Один агент, час работы: $0.08 сверх токенов. 24 агента по 8 часов в день: $15.36 только за runtime. Для enterprise это копейки. Для стартапа с сотней параллельных агентов считайте заранее.

Подводные камни

Мульти-агентная оркестрация в research preview. Самый мощный сценарий, когда один агент запускает другие и параллелит работу, доступен только по отдельному запросу. Self-evaluation (агент ставит цель и итерирует до достижения) тоже закрыт флагом. Notion и Rakuten используют эти фичи, для нового аккаунта они недоступны. Два ключевых selling point из анонса не работают у большинства пользователей.

Lock-in: только Claude. Managed Agents запускает исключительно модели Anthropic. Нельзя подключить GPT-5.4, Gemini, open-source. Anthropic на прошлой неделе выкинула OpenClaw из подписки, показав, что условия могут меняться быстро. Миграция с Managed Agents потребует переписать оркестрацию полностью.

Данные проходят через Anthropic. Каждый tool call, каждый файл, каждый вывод агента обрабатывается на серверах Anthropic. Enterprise-контракт включает privacy commitments, но для юридических документов, финансовых данных и медицинских записей это может быть blocker. Вопрос не "доверяете ли вы Anthropic", а "разрешает ли комплаенс отправлять эти данные в чужое облако".

Web search по $10 за 1000 запросов. Агент-ресёрчер, который делает 50 запросов за сессию, тратит $0.50 на поиск. При 100 сессиях в день это $50/день сверх всего остального. Для research-heavy сценариев эта строчка в прайсе может оказаться дороже самих токенов.

Альтернативы

  • Microsoft Agent Framework 1.0 (вышел 3 апреля): open-source SDK для .NET и Python, объединивший Semantic Kernel и AutoGen. Коннекторы к Claude, GPT, Gemini, Bedrock. MCP + A2A протоколы, graph-based workflows. Бесплатный и мульти-модельный, но инфраструктуру поднимаете сами. Доступен на aka.ms/AgentFramework
  • AWS Bedrock AgentCore: managed-агенты от Amazon с любой моделью на Bedrock (Claude, Llama, Titan). VPC peering из коробки, IAM-интеграция. Дороже и сложнее в настройке, зато мульти-модельный и работает внутри вашего AWS-аккаунта
  • Multica (open-source, Go + TypeScript): агенты отображаются как члены команды с Kanban-досками и навыками. Поддерживает Claude Code, OpenCode, Codex CLI. Нет sandbox-изоляции уровня Managed Agents, но мульти-модельный и полностью бесплатный при self-hosting

Вердикт

Для команды, которая строит продакшен-агента на Claude и не хочет возиться с инфраструктурой, Managed Agents реально ускорит запуск. Архитектура brain/hands/session сделана грамотно: fault tolerance через разделение компонентов, безопасность через Vaults, 90% снижение TTFT на p95. Для прототипа или внутреннего инструмента на 5-10 агентов $0.08/час вообще незаметно.

Не стоит, если ваш сценарий требует мульти-модельности, данные не могут покидать VPC, или вы рассчитываете на мульти-агентную оркестрацию прямо сейчас (она в research preview). Lock-in в одного вендора при нынешней скорости смены лидеров в AI рискованнее, чем кажется.

Как попробовать

  1. Установите SDK: pip install "anthropic>=0.91.0"
  2. Получите API-ключ в Console и задайте ANTHROPIC_API_KEY
  3. Создайте Environment + Agent по примеру из статьи или по cookbook'у data analyst
  4. Запустите сессию, отправьте задачу, мониторьте прогресс в Console → Sessions
  5. Пять готовых cookbook'ов на все случаи: data analyst, Slack-бот, fix failing tests, issue-to-PR и human-in-the-loop
$ ls ./related/

Похожие статьи

glm-51-open-source-swe-bench.md
GLM-5.1 — open-source модель из Китая обошла Claude Opus и GPT-5.4 на SWE-Bench Pro, кодит 8 часов без остановки и стоит в 5 раз дешевле
> · 8 мин

GLM-5.1 — open-source модель из Китая обошла Claude Opus и GPT-5.4 на SWE-Bench Pro, кодит 8 часов без остановки и стоит в 5 раз дешевле

Z.ai выпустила GLM-5.1 под MIT-лицензией: 58.4% на SWE-Bench Pro (выше Claude Opus 4.6 и GPT-5.4), 600+ итераций оптимизации без плато. API в 5-8 раз дешевле конкурентов, подключается к Claude Code за 5 минут.

ai agents llm coding
ai-agent-context-window-management.md
Контекстное окно AI-агента — почему Claude Code тупеет на 50% заполнения и 7 способов это исправить
> · 10 мин

Контекстное окно AI-агента — почему Claude Code тупеет на 50% заполнения и 7 способов это исправить

На 60% заполнения контекстного окна Claude Code начинает забывать решения, путать имена функций и повторять ошибки. Разбираем исследование context rot, скрытые механизмы обрезки контекста и 7 конкретных стратегий управления окном.

ai claude-code productivity tips
sobesai.sh LIVE
S.
> sobesai.app · бесплатно

Sobes AI

AI-помощник для технических собеседований. Распознаёт вопросы, генерирует ответы по твоему стеку.

Попробовать бесплатно →
subscribe.sh

$ cat /dev/blog/updates

> Свежие заметки о программировании,

> DevOps и AI — прямо в мессенджер

./subscribe