> · 5 мин

Google Colab MCP Server — теперь Claude Code и Gemini CLI пишут и запускают код прямо в облачных ноутбуках

Google Colab MCP Server — теперь Claude Code и Gemini CLI пишут и запускают код прямо в облачных ноутбуках

Google Colab MCP Server — теперь Claude Code и Gemini CLI пишут и запускают код прямо в облачных ноутбуках

Google Colab знают все, кто хоть раз тренировал модель без своей GPU. Бесплатные GPU, zero setup, ноутбуки в браузере — это стандарт для ML-инженеров, дата-сайентистов и всех, кто пишет на Python. Но до сих пор работа с Colab была чисто ручной: открываешь браузер, кликаешь ячейки, копируешь код из чата с AI.

Google это наконец починил.

TL;DR: Google выпустил open-source MCP-сервер для Colab — AI-агенты (Claude Code, Gemini CLI, любой MCP-совместимый клиент) теперь программно создают ячейки, пишут и выполняют Python-код, ставят пакеты и организуют ноутбуки. Всё в облаке Google, включая GPU. Установка — одна строчка в конфиге.

Что это и зачем

Colab MCP Server — это мост между вашим AI-агентом в терминале и облачным ноутбуком в браузере. Агент получает полный контроль над ноутбуком:

  • Создаёт .ipynb файлы и добавляет markdown-ячейки с пояснениями
  • Пишет Python-код в ячейки и выполняет его — с доступом к pandas, matplotlib, TensorFlow и всему остальному
  • Ставит зависимости через !pip install
  • Переставляет ячейки для логичной структуры

По сути, вы говорите Claude Code: "Загрузи датасет продаж и построй прогноз на следующий месяц" — и смотрите, как в Colab-ноутбуке сами появляются ячейки с кодом, графики рисуются, а результаты выполняются на облачном железе Google.

Как поставить

Три зависимости: Python, git, uv (менеджер пакетов).

pip install uv

Дальше — одна запись в конфиг MCP-клиента. Для Claude Code добавляете в settings.json:

{
  "mcpServers": {
    "colab-mcp": {
      "command": "uvx",
      "args": ["git+https://github.com/googlecolab/colab-mcp"],
      "timeout": 30000
    }
  }
}

Перезапускаете Claude Code — и Colab доступен как MCP-сервер. Работает и с Gemini CLI, и с любым другим MCP-клиентом.

Если используете нестандартный package index, добавьте --index https://pypi.org/simple в args.

Что получается на практике

Один разработчик прогнал через Colab MCP полноценный квантово-химический пайплайн: молекулярная настройка → классические бенчмарки → вариационный квантовый eigensolver → сканирование параметров из 15 точек → отправка задачи на реальный IBM-процессор на 156 кубитов. Агент сам создавал ячейки, выполнял код, ловил ошибки и переписывал проблемные участки.

Результат: ошибка ~1.21% относительно точного решения. И это не на игрушечном примере, а на реальном iron-sulfur кластере.

Что особенно ценно — агент автономно справился с тремя серьёзными поломками (несовместимость версий Qiskit, сломанный IBM-транспайлер, ограничения бесплатного плана IBM). Каждый раз находил обходной путь и продолжал работу.

Подводные камни

Секреты Colab нужно настраивать вручную. Если ваш ноутбук использует API-ключи через userdata.get(), их нужно заранее добавить в Colab Secrets в браузере. Агент не может это сделать за вас — и если ключа нет, молча упадёт без понятного сообщения.

Dependency hell никуда не делся. Стресс-тест показал: агент потратил значительную часть времени на борьбу с версиями пакетов. Qiskit 1.4.x ломал qiskit-nature 0.7.2, плагины stevedore сыпали ошибками в stderr. Для data science это типичная проблема, и MCP-сервер её не решает — он просто даёт агенту возможность с ней бороться.

Нет документации по GPU/TPU рантаймам. Официально не описано, может ли агент выбрать тип рантайма (GPU, TPU, high-RAM). На практике это значит, что перед запуском нужно вручную выбрать нужный рантайм в браузере.

254 звезды, 3 контрибьютора. Проект молодой. Issues на GitHub закрыты — команда просит писать в Discussions. Это не обязательно плохо (Google часто так делает), но означает, что баги могут висеть дольше.

Timeout 30 секунд по умолчанию. Для тяжёлых вычислений (тренировка модели, большой датасет) может не хватить. Увеличивайте timeout в конфиге.

Альтернативы

  • Jupyter MCP Server (community) — несколько community-проектов подключают локальные Jupyter-ноутбуки к AI-агентам. Работают без облака, но и без бесплатных GPU. Подходит если данные нельзя отправлять в Google
  • Desktop Commander MCP — даёт агентам доступ к файловой системе и терминалу. Не ноутбуки, но можно запускать Python-скрипты локально. Проще, но нет визуализации в стиле notebook
  • Google Antigravity — новая agentic IDE от Google (форк VS Code). Работает с Colab напрямую через расширение. Альтернативный подход: не MCP, а полноценная IDE с агентом внутри

Вердикт

Если вы работаете с данными в Colab и используете Claude Code или Gemini CLI — ставьте. Агент + облачные GPU + ноутбуки = workflow, который раньше требовал постоянного переключения между терминалом и браузером. Теперь всё в одном месте.

Если ваши данные чувствительны или вы не хотите зависимости от Google — смотрите на локальные Jupyter MCP-серверы.

Если вы ждёте production-ready решение — подождите. 254 звезды и 3 контрибьютора говорят о том, что проект на ранней стадии. Но за ним стоит Google, и MCP быстро становится стандартом — так что дорастёт.

Как попробовать

  1. Убедитесь что есть Python, git и uv: pip install uv
  2. Добавьте конфиг в ваш MCP-клиент (Claude Code: settings.json, Gemini CLI: mcp.json):
"colab-mcp": {
  "command": "uvx",
  "args": ["git+https://github.com/googlecolab/colab-mcp"],
  "timeout": 30000
}
  1. Перезапустите агента и откройте Colab-ноутбук в браузере
  2. Попросите агента: "Загрузи CSV с продажами, построй тренд и сделай прогноз на 30 дней"
  3. Смотрите как ячейки появляются сами — репозиторий на GitHub
$ ls ./related/

Похожие статьи

symphony-linear-orchestrator.md
Symphony — OpenAI выложила оркестратор, который превращает Linear в очередь для AI-агентов
> · 8 мин

Symphony — OpenAI выложила оркестратор, который превращает Linear в очередь для AI-агентов

OpenAI тихо выложила Symphony — open-source оркестратор на Elixir, который мониторит твою Linear-доску и сам берёт тикеты в работу через Codex. 17.1K звёзд за два месяца, +500% к мёржам PR (по данным OpenAI). Разбираем архитектуру, подводные камни и альтернативы.

openai codex open-source orchestration
happy-horse-1-alibaba-fal-launch.md
Happy Horse 1.0 — Алибаба переманила архитектора Kling AI и сделала #1 видео-модель. Вчера запустили на fal, обещанный open source отменили
> · 8 мин

Happy Horse 1.0 — Алибаба переманила архитектора Kling AI и сделала #1 видео-модель. Вчера запустили на fal, обещанный open source отменили

Анонимная видео-модель Happy Horse 1.0 за неделю стелс-теста на Artificial Analysis Video Arena заняла #1, обогнав ByteDance Seedance 2.0 на 100 Elo. Вчера, 27 апреля, fal запустил её как официальное API за $0.14-0.28 в секунду. Под капотом команда Чжан Ди, бывшего архитектора Kling AI. Обещанный open source команда тихо отменила.

ai video-generation alibaba stealth-launch
deepseek-v4-release.md
DeepSeek V4 — миллион токенов за $3.48, open-weights под MIT и работа без Nvidia
> · 9 мин

DeepSeek V4 — миллион токенов за $3.48, open-weights под MIT и работа без Nvidia

DeepSeek V4 Pro и Flash: 1.6 триллиона параметров, миллион токенов контекста, MIT-лицензия, $3.48 за миллион выходных токенов и нативная поддержка Huawei Ascend. Open-weights flagship, который стоит в 21 раз дешевле Opus 4.7.

ai agents llm open-source
subscribe.sh

$ cat /dev/blog/updates

> Свежие заметки о программировании,

> DevOps и AI — прямо в мессенджер

./subscribe