> · 6 мин

GPT-5.5 Instant — OpenAI тихо подменил мозг ChatGPT для сотен миллионов и пустил его в твой Gmail

GPT-5.5 Instant — OpenAI тихо подменил мозг ChatGPT для сотен миллионов и пустил его в твой Gmail

Вчера в 10:00 утра по PT OpenAI без демо, без стрима и без баннера в самом приложении поменяли default-модель ChatGPT. Если ты Free-юзер или не лез в settings на Plus/Pro, ты уже общаешься с GPT-5.5 Instant вместо GPT-5.3 Instant. Узнал ты об этом из твита Ивана Мехты в TechCrunch, а не из ChatGPT.

TL;DR: GPT-5.5 Instant вышел 5 мая 2026 как новый default ChatGPT, заменив GPT-5.3. По внутренним замерам OpenAI: -52.5% галлюцинаций в medicine/law/finance, AIME 2025 81.2 против 65.4, MMMU-Pro 76 против 69.2. В API доступен как chat-latest. Бенчмарков с конкурентами нет. И теперь модель умеет читать твой Gmail для персонализации ответов.

Что именно изменилось

GPT-5.5 уже выходил 23 апреля как флагман для сложного агентного кода и multi-step рассуждений. То, что выкатили вчера, это его лёгкая Instant-версия для ChatGPT-чата. Не для Codex, не для агентов. Для миллионов людей, которые открывают ChatGPT задать вопрос о рецепте или попросить отредактировать письмо.

Цифры по бенчмаркам (все внутренние OpenAI, без сравнения с конкурентами):

  • 52.5% fewer hallucinated claims на high-stakes промптах: медицина, юриспруденция, финансы
  • 37.3% fewer inaccurate claims на разговорах, которые юзеры уже зафлаговали как фактически неверные
  • AIME 2025 (математика): 81.2 против 65.4
  • MMMU-Pro (мультимодальное рассуждение): 76.0 против 69.2
  • CharXiv (анализ научных графиков): 81.6 против 75.0

Эти проценты OpenAI меряли на собственных eval-сетах. Сравнения с Claude Haiku 4.5, Gemini 3.1 Flash или DeepSeek V4 Flash в посте нет. Paul Sawers в The New Stack отмечает это прямым текстом: "these results are based on OpenAI's own reporting."

Memory sources: фича, ради которой стоит читать пост

Раньше ChatGPT помнил, но не показывал, что именно использовал. Спросил "какой у меня любимый язык программирования", он ответил "Python", а откуда взял, ты не знал. Теперь под каждым персонализированным ответом видна иконка с источниками: какой именно прошлый чат, какая саммари из памяти, какой файл.

Эти источники можно удалять и редактировать. Если шаришь чат с кем-то, собеседник источников не видит. Если используешь temporary chat, память не пишется и не читается.

Контекст модель тянет из трёх мест:

  1. Прошлые чаты: все, что ты писал в ChatGPT раньше
  2. Загруженные файлы: PDF, документы, картинки
  3. Connected Gmail: почта, если ты её подключил в settings

Gmail-интеграция самая спорная. Включается в Plus/Pro на web прямо сейчас, на mobile скоро, для Free и Enterprise в ближайшие недели. По умолчанию выключено, но если включил, модель сама решает, когда "personalization can help", и лезет туда без явного твоего разрешения на каждый запрос.

Memory sources в ChatGPT

Для разработчиков на API

В API новая модель доступна как chat-latest. GPT-5.3 Instant остаётся для платных юзеров три месяца, потом retire.

curl https://api.openai.com/v1/chat/completions \
  -H "Authorization: Bearer $OPENAI_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "chat-latest",
    "messages": [{"role": "user", "content": "Что у тебя за модель?"}]
  }'

Если ты пинил gpt-5.3-instant в проде, у тебя deadline до начала августа. После модель отключат, и любые запросы вернут 404.

Подводные камни

1. Все бенчмарки внутренние OpenAI. Никаких сравнений с Claude Haiku 4.5, Gemini Flash, Mistral Small или DeepSeek V4 Flash. Pattern в индустрии понятный: каждая лаба меряет себя на своих evals и показывает прирост на 50%. Реальные сравнения смотрят на LMSys Arena и в специализированные бенчи типа SWE-bench. По состоянию на сегодня у Instant-версии нет ни того, ни другого.

2. Pattern OpenAI: каждый Instant получает регрессии. GPT-5.2 Instant в собственной системной карте OpenAI признали регрессии: "dips in quality compared to 5.1, grading mistakes, inconsistent behavior." Reddit r/OpenAI после каждого Instant-апдейта переполняется жалобами на "feels dumber", agressive safety filters и flatter tone. Подожди неделю-две до production-апгрейда и читай r/ChatGPTcomplaints.

3. Gmail-интеграция opt-in, но behavior непрозрачный. Включил в settings, модель сама решает, когда лезть в почту. Что именно она прочитала, видно в Memory sources, но OpenAI явно пишет: "may not show every factor that shaped an answer." То есть полного списка не будет.

4. chat-latest это moving target. Сегодня это GPT-5.5 Instant snapshot 2026-05-05. Через месяц OpenAI без анонса поменяет под капотом, и твои тесты сломаются. Если нужна стабильность, пинуй конкретный snapshot, не алиас.

5. GPT-5.3 Instant ретайрят через 3 месяца. Если построил продукт с тонкой настройкой под 5.3, дедлайн на адаптацию начало августа. Регрессионные тесты на chat-latest, перепрогон evals, промпт-инжиниринг под новый стиль.

Альтернативы

Claude Haiku 4.5 (Anthropic). Самая быстрая дешёвая модель Anthropic, $1/$5 за миллион токенов. Без Gmail-интеграции, без default-роли в массовом продукте. Зато Haiku-версии замораживают на месяцы, а не подменяют через chat-latest.

Gemini 3.1 Flash-Lite (Google). $0.25 за миллион входных токенов, 363 токена/сек. Дешевле OpenAI в три раза, без Gmail-чтения, но интеграция с Workspace через AI Studio проще. Default ChatGPT, впрочем, это не цена, это привычка сотен миллионов.

DeepSeek V4 Flash. $0.14 за миллион input, open weights под MIT. Идеален для self-hosted, но "поговори с ботом про моё здоровье" на DeepSeek большинство не запустит из-за комплаенса и недоверия к китайским провайдерам.

Вердикт

Если ты dev на API, переключайся на chat-latest спокойно. Выигрыш в бенчмарках реальный, и регрессии в Instant обычно касаются стиля и refusals, а не качества JSON-ответов на типовые задачи. Если ты на проде с пинутой 5.3, подожди две недели и читай r/OpenAI, в первые дни всегда вылезает что-то странное. Если ты конечный пользователь, ты уже работаешь с GPT-5.5 Instant. Проверь Memory sources в каком-нибудь персонализированном ответе и выключи Gmail-personalization, если не хочешь, чтобы модель помнила про твою медицинскую справку в следующих чатах.

Как попробовать прямо сейчас

  1. Открой chatgpt.com. На Free и Go ты уже на 5.5 Instant. На Plus/Pro он default, но в model picker остался GPT-5.3 Instant как опция.
  2. Задай "What model are you?". Должен ответить GPT-5.5 Instant (хотя default-модели часто путаются и говорят "GPT-4").
  3. Спроси что-то с personalization, например "что я обычно покупаю на ужин?". Увидишь иконку Memory sources снизу, кликни и посмотри, что модель использовала.
  4. В Settings → Personalization → Memory отключи Gmail и past chats, если параноишь.
  5. Для devs: в API замени gpt-5-3-instant на chat-latest. Прогоняй eval-сеты до того, как мерджить в прод. Snapshot-имя для пиннинга появится в официальной странице моделей в течение недели.
$ ls ./related/

Похожие статьи

nemotron-3-nano-omni.md
NVIDIA Nemotron 3 Nano Omni: 30B-модель, которая видит, слышит и читает за один проход. И обходит Qwen3-Omni на каждом бенчмарке
> · 8 мин

NVIDIA Nemotron 3 Nano Omni: 30B-модель, которая видит, слышит и читает за один проход. И обходит Qwen3-Omni на каждом бенчмарке

NVIDIA выкатила открытую multimodal модель Nemotron 3 Nano Omni: 30B параметров, 3B активных, понимает video/audio/image/text одной моделью. 9x throughput vs другие omni-модели, 25 ГБ RAM в 4-бит. Бьёт Qwen3-Omni на каждом бенчмарке.

ai agents llm open-source
gnap-git-native-agent-protocol-v2.md
GNAP: оркестрируй рой AI-агентов через git-репо. 4 JSON-файла, ноль серверов
> · 6 мин

GNAP: оркестрируй рой AI-агентов через git-репо. 4 JSON-файла, ноль серверов

Farol Labs предлагает координировать AI-агентов через 4 JSON-файла в git-репо. Без серверов, без баз. Любой агент с git push автоматически в команде. Разбираем GNAP — RFC-черновик git-native оркестрации.

ai agents open-source git
grok-43-release-pricing.md
Grok 4.3 — 53 балла на Intelligence Index, $1.25 за миллион токенов и регрессия в агентах. xAI выкатил модель, пока Маск судится с Altman'ом
> · 9 мин

Grok 4.3 — 53 балла на Intelligence Index, $1.25 за миллион токенов и регрессия в агентах. xAI выкатил модель, пока Маск судится с Altman'ом

xAI выкатил Grok 4.3 — reasoning-модель за $1.25/$2.50 за миллион токенов, на 40-60% дешевле Grok 4.20. Always-on reasoning, миллион токенов контекста и клонирование голоса за минуту. Но в агентских задачах модель «впадает в спячку», в ProofBench выбивает 11%, а отключить размышления нельзя — платишь за reasoning даже на «привет».

llm xai grok ai-models
subscribe.sh

$ cat /dev/blog/updates

> Свежие заметки о программировании,

> DevOps и AI — прямо в мессенджер

./subscribe