MemPalace — актриса из «Пятого элемента» сделала AI-память на 42 000 звёзд, и бенчмарки оказались не совсем честными
MemPalace — актриса из «Пятого элемента» сделала AI-память на 42 000 звёзд, и бенчмарки оказались не совсем честными
Милла Йовович имеет аккаунт на GitHub. Код, который она выложила, работает. Эти два факта привлекли к MemPalace больше внимания, чем любой бенчмарк.
5 апреля 2026 года актриса из «Resident Evil» и «Пятого элемента» вместе с разработчиком Беном Сигманом (CEO Libre Labs) выложили MemPalace — open-source систему памяти для AI-агентов. За неделю репозиторий собрал 42 000 звёзд, 5 376 форков и 30 контрибьюторов. MIT-лицензия, Python, работает полностью локально.
TL;DR: MemPalace хранит ВСЕ ваши разговоры с AI без потерь, организует их в «дворец» с крыльями, залами и комнатами, и находит нужное через семантический поиск. 96.6% recall на LongMemEval без единого API-вызова. Бесплатно. Но маркетинг вокруг цифр оказался агрессивнее, чем заслуживал код.
Зачем это нужно
Шесть месяцев ежедневной работы с Claude Code или ChatGPT = примерно 19.5 миллионов токенов разговоров. Каждое решение, каждая отладочная сессия, каждый спор об архитектуре. Закрыл сессию — всё исчезло.
Существующие решения (Mem0 за $19-249/мес, Zep за $25+/мес) пытаются исправить это, заставляя AI выбирать, что запомнить. AI извлекает «пользователь предпочитает Postgres» и выбрасывает разговор, где вы объясняли почему. Теряется контекст, теряются аргументы.
Йовович столкнулась с этим в конце 2025-го: тысячи разговоров с Claude и ChatGPT о бизнесе, проектах, отладке. Попробовала Mem0 и Zep. Обе системы выкидывали именно те детали, которые ей были нужны. Она нашла Бена Сигмана, и вместе они несколько месяцев строили MemPalace с помощью Claude Code. Йовович проектировала архитектуру, Сигман писал код.
Архитектура «дворца»
Подход MemPalace: хранить всё дословно, потом делать находимым. Метафора взята из метода локусов древнегреческих ораторов, которые запоминали речи, мысленно размещая идеи в комнатах воображаемого здания.
Как это работает в коде:
- Wing (крыло) — проект или человек.
wing_kai,wing_driftwood - Room (комната) — конкретная тема внутри крыла.
auth-migration,graphql-switch - Hall (зал) — тип памяти, одинаковый во всех крыльях: факты, события, открытия, предпочтения, советы
- Tunnel (туннель) — связь между одноимёнными комнатами в разных крыльях. Если
auth-migrationесть у проекта и у человека, туннель соединяет их - Closet (шкаф) — краткое описание, указывающее на оригинал
- Drawer (ящик) — дословный текст разговора, без изменений
Под капотом: ChromaDB для векторного хранения, SQLite для knowledge graph с временными триплетами. Зависимости: chromadb и pyyaml. Всё.
Структурирование реально работает. На 22 000+ реальных воспоминаниях:
- Поиск по всем шкафам — 60.9% R@10
- Поиск внутри крыла — 73.1% (+12%)
- Крыло + зал — 84.8% (+24%)
- Крыло + комната — 94.8% (+34%)
Справедливости ради: этот +34% — стандартная фильтрация метаданных в ChromaDB. Заслуга MemPalace в том, что они автоматизируют классификацию. Сам механизм не нов.
Как попробовать за 5 минут
pip install mempalace # Инициализация — создаёт структуру дворца mempalace init ~/projects/myapp # Загрузить переписки с AI (Claude, ChatGPT, Slack) mempalace mine ~/chats/ --mode convos # Загрузить проектные файлы mempalace mine ~/projects/myapp # Найти что угодно mempalace search "почему мы перешли на GraphQL"
Для Claude Code (рекомендуемый вариант):
claude plugin marketplace add milla-jovovich/mempalace claude plugin install --scope user mempalace
Или через MCP напрямую:
claude mcp add mempalace -- python -m mempalace.mcp_server
После подключения Claude получает 19 MCP-инструментов. Вы просто спрашиваете «что мы решили по авторизации в прошлом месяце?», Claude сам вызывает mempalace_search и отвечает с контекстом.
Для локальных моделей (Llama, Mistral) без MCP:
mempalace wake-up > context.txt # Вставить context.txt в system prompt модели
AI просыпается с ~170 токенами контекста (Layer 0 + Layer 1) — кто вы, с кем работаете, какие проекты ведёте. Поиск запускается только по запросу. Стоимость: около $10/год против $507/год за LLM-суммаризацию.
19 MCP-инструментов
Набор серьёзный:
Чтение: mempalace_status, mempalace_search, mempalace_list_wings, mempalace_list_rooms, mempalace_get_taxonomy, mempalace_check_duplicate, mempalace_get_aaak_spec
Запись: mempalace_add_drawer, mempalace_delete_drawer
Knowledge Graph: mempalace_kg_query, mempalace_kg_add, mempalace_kg_invalidate, mempalace_kg_timeline, mempalace_kg_stats
Навигация: mempalace_traverse, mempalace_find_tunnels, mempalace_graph_stats
Дневники агентов: mempalace_diary_write, mempalace_diary_read
Knowledge graph хранит факты с временными окнами. «Кай работает над Orion с 1 июня» можно инвалидировать: kg.invalidate("Kai", "works_on", "Orion", ended="2026-03-01"). Текущие запросы больше не вернут устаревший факт, но исторические — вернут.
Автосохранение для Claude Code
Два hook'а, которые сохраняют память автоматически:
- Save Hook — каждые 15 сообщений триггерит структурированное сохранение: темы, решения, цитаты, изменения кода
- PreCompact Hook — срабатывает перед сжатием контекста. Экстренное сохранение до того, как окно усохнет
{ "hooks": { "Stop": [{"matcher": "", "hooks": [{"type": "command", "command": "/path/to/mempalace/hooks/mempal_save_hook.sh"}]}], "PreCompact": [{"matcher": "", "hooks": [{"type": "command", "command": "/path/to/mempalace/hooks/mempal_precompact_hook.sh"}]}] } }
PreCompact hook — отличная идея. Проблема потери контекста при auto-compact в Claude Code реальна, и этот hook перехватывает данные до усечения.
Бенчмарки: что правда, а что маркетинг
Здесь начинается интересное. Заявлено: 96.6% на LongMemEval в raw mode, 100% с Haiku rerank. Mem0 и Zep показывают ~85%. Звучит как прорыв.
Что реально:
96.6% R@5 на 500 вопросах LongMemEval, ноль API-вызовов. Независимо воспроизведено на M2 Ultra за 5 минут пользователем @gizmax. Это честно, и это лучший результат в категории «без облака».
Что оказалось сложнее:
Независимый анализ от lhl/agentic-memory (205 реакций на issue) выяснил несколько вещей. Бенчмарк-раннер только делает retrieval, он никогда не генерирует ответ и не вызывает judge. Для каждого из 500 вопросов проверяется, попал ли gold session ID в top-5 результатов. Это не то же самое, что «система правильно ответила на вопрос».
Результат 100% с Haiku rerank использовал точечные фиксы для 3 проваленных вопросов плюс LLM-reranking. Held-out score: 98.4%. LoCoMo 100% использовал top_k=50 при пуле максимум из 32 сессий, то есть система извлекала буквально всё и отдавала Claude Sonnet на reading comprehension. Этап векторного поиска фактически пропускался.
Что команда признала честно:
7 апреля Йовович и Сигман опубликовали обновление README, где перечислили конкретные ошибки: AAAK-сжатие заявлялось как «30x lossless», а на деле оно lossy (84.2% vs 96.6%). Подсчёт токенов использовал len(text)//3 вместо настоящего токенизатора. «Детекция противоречий» существует как fact_checker.py, но не подключена к knowledge graph.
Цитата из README: «Brutal honest criticism is exactly what makes open source work, and it's what we asked for. We're listening, we're fixing, and we'd rather be right than impressive.»
Реакция сообщества на честность была положительной. Penfield Labs на dev.to был более жёсток: «переменная, создающая разницу в вовлечённости на порядки по сравнению с аналогичными open-source проектами — это не инженерия».
Подводные камни
-
Shell injection в hooks (#110) — save_hook.sh обрабатывает пользовательский ввод без санитизации. Пока не исправлен. Если подключаете hook'и, проверяйте, какие данные проходят через шелл
-
Segfault на macOS ARM64 (#74) — ChromaDB в определённых конфигурациях падает на Apple Silicon. Обходной путь: привязка к конкретной версии ChromaDB (Issue #100)
-
Нет write gating — MCP-инструмент
add_drawerвставляет данные напрямую без подтверждения. Это создаёт поверхность для prompt injection: вредоносный текст в разговоре может записаться в память и влиять на будущие ответы AI -
O(n) операции — palace graph строится сканированием всех метаданных батчами по 1000 (Issue #146). L1 loading тоже O(n). С ростом объёма памяти производительность будет деградировать
-
Фейковые сайты с малварью — у MemPalace нет официального сайта (mempalace.tech создан сообществом). Несколько фейковых mempalace-доменов уже появились с вредоносным ПО (Issues #267, #326, #506). Устанавливайте только через
pip install mempalaceили GitHub -
AAAK compression ухудшает recall — 84.2% против 96.6% в raw mode. При этом на малых масштабах AAAK даже увеличивает количество токенов (overhead кодов и разделителей). Используйте raw mode для точности
Альтернативы
- Mem0 — $19-249/мес, extraction-based подход (AI решает, что запомнить), ~85% LongMemEval, $24M инвестиций. Зрелый продукт с enterprise-поддержкой. Если нужна стабильность и не жалко $19/мес — надёжный выбор
- Zep (Graphiti) — $25+/мес, temporal knowledge graph на Neo4j, ~85% LongMemEval. Лучше для сложных связей между сущностями, но облако и подписка
- Hindsight — open-source от Vectorize.io, обучается как человеческий мозг, а не как векторный поиск. Менее зрелый, но бесплатный
- GBrain — Garry Tan (CEO Y Combinator) выложил свою AI-память. Markdown в git-репо + Postgres + pgvector. Проще MemPalace, но и менее функционален
Вердикт
Если вы ведёте десятки сессий с Claude Code или ChatGPT каждую неделю и вам надоело заново объяснять контекст, MemPalace стоит 5 минут на pip install. Данные остаются локально, риск нулевой. Для соло-разработчиков с несколькими активными проектами выигрыш ощутим уже через неделю использования. Если у вас пара разговоров с AI в неделю, setup overhead того не стоит. А если нужна production-ready система для команды с SLA, берите Mem0 или Zep: MemPalace семь дней от роду, 372 открытых issue, и код ещё не прошёл через горнило реального продакшена.
Как попробовать
pip install mempalace(Python 3.9+)mempalace init ~/projects/ваш-проект— пройти onboardingmempalace mine ~/chats/ --mode convos— загрузить переписки с AI- Для Claude Code:
claude plugin marketplace add milla-jovovich/mempalace && claude plugin install --scope user mempalace - Спросить Claude: «что мы решили по [тема] на прошлой неделе?» — и увидеть, как работает память
Документация на GitHub. Фейковых сайтов остерегайтесь — устанавливайте только через pip или GitHub.