Cursor Composer 2 построен на китайской Kimi K2.5 — разработчик нашёл настоящее имя модели в API за 24 часа
Cursor Composer 2 построен на китайской Kimi K2.5 — разработчик нашёл настоящее имя модели в API за 24 часа
19 марта Cursor с помпой анонсировал Composer 2 — «собственную» модель, которая бьёт Claude Opus 4.6 на бенчмарках и стоит в 10 раз дешевле. В блог-посте — графики, цифры, слова про «continued pretraining» и «scaled reinforcement learning». Ни слова о том, на чём это всё построено.
Через 24 часа разработчик Fynn заглянул в API — и обнаружил, что «собственная модель» на $29.3 миллиарда оценки — это open-weight Kimi K2.5 от пекинской Moonshot AI с дообучением.
TL;DR: Cursor выпустил Composer 2, не упомянув, что базовая модель — Kimi K2.5 от Moonshot AI. Разработчик нашёл идентификатор
kimi-k2p5-rl-0317-s515-fastв ответах API. Лицензия Kimi требует атрибуции при >$20M/мес выручки, а у Cursor — $167M/мес. Cursor признал ошибку, пообещал прозрачность. Модель при этом реально хороша: 61.7 на Terminal-Bench 2.0 при $0.50/1M input-токенов.
Что произошло — таймлайн
19 марта. Cursor публикует блог-пост: «Composer 2 — наша следующая модель для кодинга. Улучшения — результат первого раунда continued pretraining и обучения на long-horizon задачах через reinforcement learning». Ни слова про базовую модель. В UI отображается «Composer 2». Цена — $0.50/1M input, $2.50/1M output. Сообщество аплодирует.
20 марта. Разработчик Fynn (@fynnso) тестирует OpenAI-совместимый эндпоинт Cursor и получает в ответе идентификатор модели:
accounts/anysphere/models/kimi-k2p5-rl-0317-s515-fast
Одна строка — и красивая история про «собственную модель» рассыпалась.
20 марта, вечер. Юлунь Ду, руководитель претренинга Moonshot AI, публично подтверждает: токенайзер Composer 2 «полностью идентичен токенайзеру Kimi». Задаёт вопрос о соблюдении лицензии. Несколько сотрудников Moonshot публикуют обвинения в соцсетях, затем удаляют посты.
21 марта. Ли Робинсон, VP Developer Experience в Cursor, признаёт: «Не упомянуть Kimi как базу в блог-посте с самого начала было ошибкой. В следующем релизе модели укажем сразу». Cursor уточняет: «Только ~1/4 вычислений финальной модели пришлось на базу, остальные 3/4 — наш тренинг».
21 марта, позже. Moonshot AI меняет тон с обвинений на поздравления. Выясняется, что Cursor получил доступ к Kimi K2.5 через хостинг-платформу Fireworks AI, у которой есть коммерческое соглашение с Moonshot. Юридически — всё чисто. Морально — вопросы остались.
Анатомия одной строки
Разберём идентификатор по частям:
- anysphere — юридическое название Cursor (Anysphere Inc.)
- kimi-k2p5 — базовая модель Kimi K2.5 от Moonshot AI
- rl — reinforcement learning, метод дообучения
- 0317 — предположительно дата тренинга: 17 марта 2026
- s515 — внутренний идентификатор версии
- fast — оптимизированный вариант для быстрого инференса
Два дня от тренинга до публичного анонса — скорость впечатляет. Прозрачность — нет.
Лицензионный узел
Kimi K2.5 распространяется под Modified MIT License — стандартная MIT с одним дополнением:
Если продукт или сервис на базе модели имеет более 100 миллионов MAU или более $20 миллионов ежемесячной выручки, необходимо заметно отображать «Kimi K2.5» в пользовательском интерфейсе.
Цифры Cursor на момент скандала:
- Оценка компании: $29.3 млрд
- Годовая выручка:
$2 млрд ($167M/мес — в 8 раз выше порога) - DAU: 1M+ (MAU явно превышает порог)
В интерфейсе Cursor при этом отображалось ровно одно слово: «Composer 2». Ни намёка на Kimi.
Формально Cursor решил вопрос через Fireworks AI — посредника, у которого есть коммерческий договор с Moonshot. Но «заметно отображать» — это не про строчку в коммерческом соглашении между компаниями. Это про то, что видит пользователь.
А модель-то хороша
Вот что забавно: если бы Cursor с самого начала сказал «мы взяли Kimi K2.5, вложили 75% вычислений в RL-дообучение и получили монстра для кодинга за копейки» — это была бы блестящая история. Потому что цифры реально впечатляют.
Бенчмарки Composer 2 (vs Composer 1.5 → прирост):
- CursorBench: 61.3 (было 44.2, +17 пунктов)
- Terminal-Bench 2.0: 61.7 (было 47.9, +14 пунктов)
- SWE-bench Multilingual: 73.7 (было 65.9, +8 пунктов)
Сравнение с конкурентами на Terminal-Bench 2.0:
- GPT-5.4 — 75.1 (лидер)
- Composer 2 — 61.7
- Claude Opus 4.6 — 58.0
- Composer 1.5 — 47.9
Цены (input / output за 1M токенов):
- Composer 2 Standard — $0.50 / $2.50
- Composer 2 Fast — $1.50 / $7.50
- GPT-5.4 — $2.50 / $15.00
- Claude Opus 4.6 — $5.00 / $25.00
Composer 2 бьёт Opus 4.6 на Terminal-Bench за десятую часть цены. Это не маркетинг — это реальное соотношение цена/качество. Проблема не в модели. Проблема — в том, как её подали.
Почему это важнее, чем кажется
Cursor — не единственный, кто так делает. iFlytek Spark ловили на подозрении в ребрендинге ChatGPT. DeepSeek V3 представлялся «ChatGPT» из-за того, что обучался на данных, сгенерированных ChatGPT. Целые «мастерские» в Китае упаковывали API OpenAI в обёртку и продавали как собственный продукт.
Разница в том, что Cursor — компания с оценкой в $29 млрд, крупнейший AI-IDE на рынке. Когда такая компания «забывает» указать базовую модель — это не техническая ошибка, это решение маркетинга. И оно подрывает доверие ко всей экосистеме AI-инструментов для разработчиков.
Вопрос, который теперь задаёт себе каждый разработчик: а что стоит за моделью в Windsurf? В GitHub Copilot? В следующем «собственном» LLM от очередного стартапа? Без AI Bill of Materials — аналога SBOM для моделей — ответить на этот вопрос невозможно.
Подводные камни
Баг с реверсией кода. В марте 2026 Cursor подтвердил критический баг: редактор молча откатывал изменения пользователя. Три причины: конфликт Agent Review Tab с файловым состоянием, гонка Cloud Sync с локальными сохранениями, и Format On Save, перезаписывающий AI-правки. Один разработчик на Medium описал потерю четырёх месяцев работы.
Юрисдикционные риски. Kimi K2.5 — модель из Пекина. Для компаний в regulated industries (финансы, здравоохранение, оборонка) использование китайской модели через IDE может нарушать требования data residency — даже если инференс идёт через Fireworks AI в США. Cursor нигде не предупреждает об этом.
Непредсказуемость после RL. Cursor утверждает, что 75% вычислений — их RL-тренинг. Но reinforcement learning на кодинг-задачах может создавать неожиданные edge cases: модель оптимизируется на прохождение бенчмарков, а не на безопасность или корректность в пограничных ситуациях. Независимых аудитов RL-слоя Composer 2 пока не существует.
Альтернативы
Claude Opus 4.6 через Claude Code — $5/$25 за 1M токенов, в 10 раз дороже, но Anthropic открыто публикует model card, тренировочный подход и ограничения. Если прозрачность цепочки поставок критична — это самый безопасный выбор.
GPT-5.4 через Codex CLI — $2.50/$15, лидирует на Terminal-Bench 2.0 (75.1 vs 61.7 у Composer 2). OpenAI не использует чужие open-weight модели как базу — это полностью собственная разработка, хотя и с собственными проблемами прозрачности в данных для обучения.
Kimi K2.5 напрямую через Fireworks AI — вы точно знаете, что запускаете. Open-weight, доступен на Hugging Face, можно хостить самостоятельно. Если Cursor берёт эту модель, дообучает и продаёт вам за $0.50/1M — может, дешевле обучить собственный RL-слой на нужных вам задачах?
Вердикт
Composer 2 — реально сильная модель за смешные деньги, и скандал этого не отменяет. Если вы уже используете Cursor и вас устраивает качество — переключаться нет причин. Но если вы выбираете AI-IDE для команды в regulated-отрасли — уточните у вендора, что именно стоит за «собственной моделью», прежде чем подписывать контракт. А для индустрии в целом эта история — звонок: нам нужен стандарт AI-BOM (AI Bill of Materials), иначе каждый второй «собственный LLM» окажется open-weight моделью в красивой обёртке.
Как попробовать
- Попробовать Composer 2: откройте Cursor, переключите модель на Composer 2 в настройках — она доступна на Pro и Business планах
- Проверить, какая модель работает: используйте OpenAI-совместимый эндпоинт Cursor и посмотрите поле
modelв ответе — именно так Fynn нашёлkimi-k2p5 - Попробовать Kimi K2.5 напрямую: зарегистрируйтесь на Fireworks AI и запустите модель через их API
- Сравнить самому: попробуйте один и тот же промпт в Composer 2, Claude Code (Opus 4.6) и Codex CLI (GPT-5.4) — разница в стиле и скорости говорит больше любых бенчмарков