macOS, Linux или Windows — на какой ОС ваш AI-кодинг-агент работает быстрее, а на какой мучается
macOS, Linux или Windows — на какой ОС ваш AI-кодинг-агент работает быстрее, а на какой мучается
Все AI-кодинг-инструменты формально поддерживают три платформы. Но «поддерживает» и «нормально работает» — это два разных слова. Claude Code на WSL2 может сожрать 21 ГБ оперативки за одну сессию. Cursor на Linux зависает каждые 30 минут. А на macOS всё «просто работает» — но за это нужно заплатить цену MacBook.
TL;DR: macOS — лучший опыт из коробки для всех инструментов. Linux — идеален для CLI-агентов (Claude Code, Codex, Gemini CLI), но GUI-редакторы вроде Cursor там глючат. Windows через WSL2 работает на 87% мощности нативного Linux, но с кучей граблей — утечки памяти, задержки в 3-4 минуты и 9x пенальти на I/O при доступе к файлам через /mnt/c.
Что сравниваем
Пять главных инструментов AI-кодинга в 2026 году:
- Claude Code — CLI-агент от Anthropic, работает в терминале
- Cursor — IDE на базе Electron/VS Code с AI-интеграцией
- Codex CLI — терминальный агент от OpenAI
- Copilot CLI — терминальный агент от GitHub
- Gemini CLI — терминальный агент от Google
Каждый из них заявляет поддержку macOS, Linux и Windows. Но дьявол — в деталях.
macOS — золотой стандарт
На macOS все пять инструментов работают без сюрпризов. Это не маркетинг — это факт, подтверждённый тысячами постов на форумах, где жалобы приходят только с Windows и Linux.
Claude Code ставится одной командой (brew install --cask claude-code), Desktop-приложение — нативное. Никаких прослоек WSL, никаких конфликтов Git Bash. Файловая система работает на полной скорости — без 9P моста, без виртуализации.
Cursor — тут контраст с другими ОС самый яркий. На форуме Cursor пользователи пишут: «На macOS всё просто работает из коробки — Composer автоматически двигает файлы, удаляет, запускает команды. На Windows — вечная борьба с зависимостями и MCP». Настройка MCP-серверов, которая на macOS занимает минуту, на Windows превращается в квест — потому что npx на Windows требует запуска через cmd.exe, и Cursor об этом не знает.
Codex CLI, Copilot CLI, Gemini CLI — все три работают нативно, с полной поддержкой sandbox-изоляции. Никаких дополнительных зависимостей, никаких экспериментальных режимов.
Почему macOS выигрывает: Unix-подобная система, нативный терминал, единый пул памяти Apple Silicon, отсутствие виртуализационных прослоек. Большинство AI-агентов разрабатывались и тестировались в первую очередь на macOS — это видно по количеству Windows-специфичных багов в GitHub Issues.
Linux — рай для CLI, минное поле для GUI
Если вы работаете через терминал — Linux даёт лучшую производительность I/O и 100% совместимость инструментов. По данным Delphi-PRAXiS форума, нативный Linux обеспечивает «мгновенный I/O» и полную совместимость, тогда как Windows Native — лишь 70%.
Claude Code на Linux — это его родная среда. Sandbox работает через Landlock/seccomp — зрелые, протестированные механизмы ядра. Никаких экспериментальных AppContainer. Все команды, все скрипты, все MCP-серверы работают без адаптации.
Codex CLI — аналогично. OpenAI прямо пишет: WSL2 рекомендуется для production-использования, потому что обеспечивает «тот же Landlock/seccomp sandbox, что и Linux, совпадая со средой, в которой модели Codex обучались».
Gemini CLI — кроссплатформенный, без платформенных ограничений. Работает одинаково на всех трёх ОС.
А вот с GUI-инструментами на Linux — беда. Cursor на Linux — это отдельная история боли. На форуме Cursor пользователи сообщают:
- Зависания каждые 30 минут с ошибкой «Cursor Is Not Responding»
- Фризы по 3-10 секунд при скроллинге и наборе текста — даже без AI-фич
- Механизм обновления сломан — «Update Now» закрывает приложение, но не обновляет
- Крэши на Arch Linux после обновлений
Поддержка отвечает одно: «обновитесь до новой версии». Пользователи отвечают: «стало хуже». Отдельный тред собирает жалобы на сломанные обновления.
Windows — WSL2 или страдания
На Windows ситуация самая сложная. Формально всё работает. На практике — с оговорками размером с лицензионное соглашение.
Claude Code на Windows
У Claude Code на Windows три пути:
- Desktop-приложение (с февраля 2026) — нативное, с полным функциональным паритетом. Не требует WSL. Это самый простой вариант, но только для GUI.
- CLI через WSL2 — рекомендуемый путь для терминальной работы. Совместимость 99%. Но с подводными камнями.
- CLI через Git Bash — нативный Windows. Совместимость около 70%, скрипты часто ломаются.
Проблемы WSL2 с Claude Code задокументированы в GitHub Issues:
- #18048: память растёт с 4.7 ГБ до 21.1 ГБ за сессию, делая работу невозможной
- #27367: полные зависания WSL2
- #7844: задержки при переключении команд и выходе
- #26006: Claude Code тихо использует WSL вместо Git Bash, что ломает Windows-специфичные задачи
На Hacker News пользователь пишет: «Claude Code всегда довольно медленный у меня. Я на Windows, так что не уверен, что тормоза из-за WSL». Другой подтверждает: «Инструмент регулярно зависал после долгого использования, производительность деградировала со временем».
Codex CLI на Windows
OpenAI предлагает три варианта:
- Нативный PowerShell — экспериментальный AppContainer sandbox. Требует Visual Studio Build Tools. Не может защитить директории, где у Everyone есть права на запись.
- WSL2 — рекомендуется для production. Тот же sandbox, что на нативном Linux.
- Standalone binary — без зависимостей, но с ограничениями.
OpenAI прямым текстом говорит: нативный Windows — экспериментальный. WSL2 — рекомендуемый.
Copilot CLI на Windows
Полная поддержка macOS, Linux и Windows. Но на Windows рекомендуется WSL для максимальной стабильности. На нативном PowerShell — ограничения и требование PowerShell 6+. Недавние обновления улучшили скорость записи файлов и исправили баги с кастомными профилями PowerShell, но WSL по-прежнему надёжнее.
Cursor на Windows
Работает, но «ощущается неуклюже по сравнению с macOS». Основные проблемы: MCP-серверы не подключаются, агент спотыкается на терминальных командах, настройка зависимостей превращается в борьбу.
Конкретные числа
По данным Phoronix (сентябрь 2025), WSL2 на Windows 11 25H2 показывает в 50+ бенчмарках:
- 87% производительности нативного Linux в среднем
- 10-15% оверхед на CPU-задачах
- До 20% оверхед на I/O-задачах
Но главная ловушка — файловая система. Бенчмарки показывают: нативная ext4 в WSL2 даёт ~1 ГБ/с, а доступ к NTFS через 9P мост — ~110 МБ/с. Разница в 9 раз. Это означает: если ваш проект лежит в /mnt/c/Users/... — каждая операция чтения/записи Claude Code или Codex будет в 9 раз медленнее, чем могла бы быть.
Память в WSL2 — отдельная боль. WSL2 агрессивно захватывает RAM и редко отдаёт обратно. VMMem может съесть 10-15 ГБ, после чего Windows принудительно убивает виртуальную машину WSL2, разрывая сессию Claude Code.
Для сравнения — потребление RAM у IDE:
- Cursor (Electron): 700-1200 МБ на проекте из 50K файлов
- Zed (Rust/GPU): 300-500 МБ на том же проекте
- Zed стартует за ~200 мс, Cursor — за 2-3 секунды
Подводные камни
1. «Проект в /mnt/c — не страшно» — ещё как страшно. 9x пенальти на I/O — это не абстрактная цифра. Claude Code постоянно читает и пишет файлы. Если проект лежит в Windows-файлах, а вы работаете через WSL2 — каждый запрос к агенту будет ощутимо медленнее. Перенести проект в ~/code/ внутри WSL2 — самый большой бесплатный буст производительности.
2. «Linux = быстрее для всего» — не для GUI-редакторов. Cursor на Linux — это хроническая головная боль с зависаниями, крэшами и сломанным обновлением. Если вы используете Cursor как основной инструмент — macOS будет стабильнее. Если же вы работаете через CLI (Claude Code, Codex, Gemini CLI) — Linux даёт максимальную производительность.
3. «Desktop-приложение Claude Code заменяет CLI» — нет. Desktop-приложение на Windows появилось в феврале 2026 с полным функциональным паритетом. Но если ваш workflow завязан на терминал, git worktrees, hooks и автоматизацию — вам всё равно нужен CLI, а значит WSL2 со всеми его особенностями.
4. «Gemini CLI одинаков везде» — почти правда. Gemini CLI действительно кроссплатформенный и работает одинаково на всех ОС. Но это скорее исключение — Google изначально строил CLI с прицелом на кроссплатформенность, тогда как Anthropic и OpenAI явно отдавали приоритет Unix-среде.
5. «WSL2 = почти Linux» — на 87%, по бенчмаркам. Оставшиеся 13% — это MTU-конфликты (WSL2 по умолчанию 1500 байт, API-пути поддерживают только 1480), проблемы с inotify (дефолт 8192 watches, нужно 524288 для проектов с 10K+ файлов), и сетевые конфигурации NAT, которые ломают IDE-интеграцию.
Вердикт
macOS — если у вас есть Mac, просто используйте его. Все инструменты работают нативно, без прослоек, без сюрпризов. Это не фанатизм — это объективный факт, видимый по количеству багов на GitHub для каждой платформы.
Linux — лучший выбор для CLI-ориентированного workflow. Claude Code, Codex CLI, Copilot CLI и Gemini CLI работают здесь на 100% мощности. Но если вам нужен Cursor — готовьтесь к фризам и крэшам.
Windows — работоспособно через WSL2, но требует настройки. Перенесите проекты в ext4, выделите WSL2 минимум 50% RAM, поднимите лимит inotify watches до 524288. Без этого — будете терять время на тормозах и перезапусках. Нативное Desktop-приложение Claude Code — хороший вариант, если вам не нужен полный CLI-workflow.
Из пяти инструментов только Gemini CLI можно назвать по-настоящему кроссплатформенным. Остальные — в первую очередь Unix-инструменты, которые на Windows работают через костыли разной степени элегантности.
Как попробовать
1. Проверьте, где лежит ваш проект (Windows/WSL2):
pwd # Если /mnt/c/... — перенесите в ~/code/ cp -r /mnt/c/Users/you/project ~/code/project
2. Настройте WSL2 (если на Windows) — создайте %USERPROFILE%/.wslconfig:
[wsl2] memory=24GB swap=16GB
3. Поднимите лимит inotify (Linux/WSL2):
echo "fs.inotify.max_user_watches=524288" | sudo tee -a /etc/sysctl.conf sudo sysctl -p
4. Попробуйте CLI-агент на вашей ОС:
# Claude Code brew install --cask claude-code # macOS curl -fsSL https://claude.ai/install.sh | bash # Linux # Gemini CLI (любая ОС, нужен Node.js 18+) npx @anthropic-ai/gemini-cli
5. Если на Windows и Cursor тормозит — попробуйте Claude Code Desktop (нативное приложение, скачать тут) или переключитесь на CLI через WSL2.
Документация по оптимизации WSL2 для Claude Code — в гайде от Tributary AI. Официальный troubleshooting для всех платформ — в документации Claude Code.