GPT-5.5 Instant — OpenAI тихо подменил мозг ChatGPT для сотен миллионов и пустил его в твой Gmail
Вчера в 10:00 утра по PT OpenAI без демо, без стрима и без баннера в самом приложении поменяли default-модель ChatGPT. Если ты Free-юзер или не лез в settings на Plus/Pro, ты уже общаешься с GPT-5.5 Instant вместо GPT-5.3 Instant. Узнал ты об этом из твита Ивана Мехты в TechCrunch, а не из ChatGPT.
TL;DR: GPT-5.5 Instant вышел 5 мая 2026 как новый default ChatGPT, заменив GPT-5.3. По внутренним замерам OpenAI: -52.5% галлюцинаций в medicine/law/finance, AIME 2025 81.2 против 65.4, MMMU-Pro 76 против 69.2. В API доступен как
chat-latest. Бенчмарков с конкурентами нет. И теперь модель умеет читать твой Gmail для персонализации ответов.
Что именно изменилось
GPT-5.5 уже выходил 23 апреля как флагман для сложного агентного кода и multi-step рассуждений. То, что выкатили вчера, это его лёгкая Instant-версия для ChatGPT-чата. Не для Codex, не для агентов. Для миллионов людей, которые открывают ChatGPT задать вопрос о рецепте или попросить отредактировать письмо.
Цифры по бенчмаркам (все внутренние OpenAI, без сравнения с конкурентами):
- 52.5% fewer hallucinated claims на high-stakes промптах: медицина, юриспруденция, финансы
- 37.3% fewer inaccurate claims на разговорах, которые юзеры уже зафлаговали как фактически неверные
- AIME 2025 (математика): 81.2 против 65.4
- MMMU-Pro (мультимодальное рассуждение): 76.0 против 69.2
- CharXiv (анализ научных графиков): 81.6 против 75.0
Эти проценты OpenAI меряли на собственных eval-сетах. Сравнения с Claude Haiku 4.5, Gemini 3.1 Flash или DeepSeek V4 Flash в посте нет. Paul Sawers в The New Stack отмечает это прямым текстом: "these results are based on OpenAI's own reporting."
Memory sources: фича, ради которой стоит читать пост
Раньше ChatGPT помнил, но не показывал, что именно использовал. Спросил "какой у меня любимый язык программирования", он ответил "Python", а откуда взял, ты не знал. Теперь под каждым персонализированным ответом видна иконка с источниками: какой именно прошлый чат, какая саммари из памяти, какой файл.
Эти источники можно удалять и редактировать. Если шаришь чат с кем-то, собеседник источников не видит. Если используешь temporary chat, память не пишется и не читается.
Контекст модель тянет из трёх мест:
- Прошлые чаты: все, что ты писал в ChatGPT раньше
- Загруженные файлы: PDF, документы, картинки
- Connected Gmail: почта, если ты её подключил в settings
Gmail-интеграция самая спорная. Включается в Plus/Pro на web прямо сейчас, на mobile скоро, для Free и Enterprise в ближайшие недели. По умолчанию выключено, но если включил, модель сама решает, когда "personalization can help", и лезет туда без явного твоего разрешения на каждый запрос.

Для разработчиков на API
В API новая модель доступна как chat-latest. GPT-5.3 Instant остаётся для платных юзеров три месяца, потом retire.
curl https://api.openai.com/v1/chat/completions \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "chat-latest",
"messages": [{"role": "user", "content": "Что у тебя за модель?"}]
}'
Если ты пинил gpt-5.3-instant в проде, у тебя deadline до начала августа. После модель отключат, и любые запросы вернут 404.
Подводные камни
1. Все бенчмарки внутренние OpenAI. Никаких сравнений с Claude Haiku 4.5, Gemini Flash, Mistral Small или DeepSeek V4 Flash. Pattern в индустрии понятный: каждая лаба меряет себя на своих evals и показывает прирост на 50%. Реальные сравнения смотрят на LMSys Arena и в специализированные бенчи типа SWE-bench. По состоянию на сегодня у Instant-версии нет ни того, ни другого.
2. Pattern OpenAI: каждый Instant получает регрессии. GPT-5.2 Instant в собственной системной карте OpenAI признали регрессии: "dips in quality compared to 5.1, grading mistakes, inconsistent behavior." Reddit r/OpenAI после каждого Instant-апдейта переполняется жалобами на "feels dumber", agressive safety filters и flatter tone. Подожди неделю-две до production-апгрейда и читай r/ChatGPTcomplaints.
3. Gmail-интеграция opt-in, но behavior непрозрачный. Включил в settings, модель сама решает, когда лезть в почту. Что именно она прочитала, видно в Memory sources, но OpenAI явно пишет: "may not show every factor that shaped an answer." То есть полного списка не будет.
4. chat-latest это moving target. Сегодня это GPT-5.5 Instant snapshot 2026-05-05. Через месяц OpenAI без анонса поменяет под капотом, и твои тесты сломаются. Если нужна стабильность, пинуй конкретный snapshot, не алиас.
5. GPT-5.3 Instant ретайрят через 3 месяца. Если построил продукт с тонкой настройкой под 5.3, дедлайн на адаптацию начало августа. Регрессионные тесты на chat-latest, перепрогон evals, промпт-инжиниринг под новый стиль.
Альтернативы
Claude Haiku 4.5 (Anthropic). Самая быстрая дешёвая модель Anthropic, $1/$5 за миллион токенов. Без Gmail-интеграции, без default-роли в массовом продукте. Зато Haiku-версии замораживают на месяцы, а не подменяют через chat-latest.
Gemini 3.1 Flash-Lite (Google). $0.25 за миллион входных токенов, 363 токена/сек. Дешевле OpenAI в три раза, без Gmail-чтения, но интеграция с Workspace через AI Studio проще. Default ChatGPT, впрочем, это не цена, это привычка сотен миллионов.
DeepSeek V4 Flash. $0.14 за миллион input, open weights под MIT. Идеален для self-hosted, но "поговори с ботом про моё здоровье" на DeepSeek большинство не запустит из-за комплаенса и недоверия к китайским провайдерам.
Вердикт
Если ты dev на API, переключайся на chat-latest спокойно. Выигрыш в бенчмарках реальный, и регрессии в Instant обычно касаются стиля и refusals, а не качества JSON-ответов на типовые задачи. Если ты на проде с пинутой 5.3, подожди две недели и читай r/OpenAI, в первые дни всегда вылезает что-то странное. Если ты конечный пользователь, ты уже работаешь с GPT-5.5 Instant. Проверь Memory sources в каком-нибудь персонализированном ответе и выключи Gmail-personalization, если не хочешь, чтобы модель помнила про твою медицинскую справку в следующих чатах.
Как попробовать прямо сейчас
- Открой chatgpt.com. На Free и Go ты уже на 5.5 Instant. На Plus/Pro он default, но в model picker остался GPT-5.3 Instant как опция.
- Задай "What model are you?". Должен ответить GPT-5.5 Instant (хотя default-модели часто путаются и говорят "GPT-4").
- Спроси что-то с personalization, например "что я обычно покупаю на ужин?". Увидишь иконку Memory sources снизу, кликни и посмотри, что модель использовала.
- В Settings → Personalization → Memory отключи Gmail и past chats, если параноишь.
- Для devs: в API замени
gpt-5-3-instantнаchat-latest. Прогоняй eval-сеты до того, как мерджить в прод. Snapshot-имя для пиннинга появится в официальной странице моделей в течение недели.