> · 10 мин

LocalCowork — 302 нейрона червя, 75 инструментов и AI-агент, который работает без интернета на твоём ноутбуке

LocalCowork — 302 нейрона червя, 75 инструментов и AI-агент, который работает без интернета на твоём ноутбуке

LocalCowork — 302 нейрона червя, 75 инструментов и AI-агент, который работает без интернета на твоём ноутбуке

В 2021 году группа исследователей из MIT CSAIL изучала мозг C. elegans — круглого червя длиной 1 мм с ровно 302 нейронами. Их интересовало, как такая крошечная нейросеть умудряется управлять движением, поиском еды и реакцией на опасность. Нейроны червя общаются не цифровыми спайками, как у крупных животных, а плавными аналоговыми сигналами — и могут влиять друг на друга как вперёд, так и назад по сети.

Из этого исследования родилась Liquid AI — стартап, который поднял $297 миллионов, получил оценку в $2.3 миллиарда с AMD Ventures в качестве лид-инвестора, и 5 марта 2026 года выкатил LocalCowork — десктопного AI-агента, который работает полностью на твоём железе. Без единого запроса в облако.

TL;DR: LocalCowork — open-source десктоп-агент на Tauri 2.0, работающий полностью офлайн на модели LFM2-24B-A2B (24B параметров, 2.3B активных). 385мс на tool call, 14.5 ГБ RAM, 75 инструментов через 14 MCP-серверов. Быстро и приватно, но многошаговые цепочки пока ломаются в 74% случаев.

Почему это не «ещё одна обёртка над Ollama»

Локальные AI-чаты существуют давно — Jan, LM Studio, AnythingLLM. Но LocalCowork — это не чат-интерфейс. Это агентный стек: модель + router инструментов + 14 MCP-серверов + аудит-логи + pre-filter — собранные в одно Tauri-приложение.

Зачем? Допустим, ты в финтехе, медтехе или госсекторе. Каждый запрос в OpenAI API — данные на чужом сервере. С 2 августа 2026 года EU AI Act начинает штрафовать до 7% глобальной выручки за AI-системы, обращающиеся к персональным данным без документированного governance. LocalCowork решает это радикально: ничего не уходит с машины, каждое действие агента записывается в локальный аудит-лог.

Червь внутри: как 30 свёрток обгоняют трансформеры

Вместо того чтобы копировать архитектуру GPT/Claude (где каждый слой — это Softmax Attention с квадратичной сложностью O(N²)), Liquid AI создали гибрид. Из 40 слоёв модели LFM2-24B-A2B:

  • 30 слоёв — gated short convolution blocks (свёртки с ядром 3) — линейная сложность
  • 10 слоёв — Grouped Query Attention (GQA) — классический трансформер

Идея простая и элегантная: как только у модели есть несколько GQA-блоков для long-range retrieval, остальную работу дешёвые свёртки делают не хуже — но на порядок быстрее. Вдохновение от C. elegans здесь именно в этом: минимум нейронов, максимум эффективности.

Результат — KV-cache в разы меньше, чем у чистого трансформера того же размера. По заявлению Liquid AI, на CPU это даёт 2× ускорение prefill и decode по сравнению с Qwen3 аналогичного размера.

Mixture-of-Experts: 24 миллиарда, но активны 2.3

LFM2-24B-A2B — это MoE-модель. Из 24 миллиардов параметров на каждый токен активируются только 2.3 миллиарда. В квантизации Q4_K_M модель занимает ~14.5 ГБ и помещается в MacBook с 16 ГБ RAM (хотя Liquid AI рекомендуют 36 ГБ для комфортной работы).

Контекстное окно — 32 768 токенов. Обучение — 17 триллионов токенов. Поддержка 9 языков, включая английский, китайский, японский и арабский.

Это не единственная модель в семействе. Liquid AI выпустили целую линейку:

  • LFM2-350M — для микроконтроллеров и edge-устройств
  • LFM2-700M — для смартфонов (быстрее Qwen-0.6B при 16% большем размере)
  • LFM2-1.2B — конкурирует с Qwen3-1.7B, который на 47% крупнее
  • LFM2-2.6B — 79.56% на IFEval, 82.41% на GSM8K
  • LFM2-24B-A2B — флагман, MoE, то что крутит LocalCowork

Плюс мультимодальные варианты: LFM2-VL для зрения, LFM2-Audio для речи, LFM2-ColBERT для поиска. Целая экосистема моделей, оптимизированных под edge.

75 инструментов, но доверять стоит двадцати

LocalCowork заявляет 75 инструментов через 14 MCP-серверов:

Файловая система (9 tools) — чтение, запись, поиск, навигация

Документы и PDF (8 tools) — парсинг, генерация, извлечение текста

OCR (4 tools) — LFM Vision + Tesseract как fallback

RAG (5 tools) — семантический поиск по локальным документам

Транскрибация (4 tools) — с диаризацией спикеров

Безопасность (6 tools) — сканирование PII, поиск секретов, шифрование

Остальное — календарь, email, задачи, буфер обмена, системная информация, аудит

Но тут важный нюанс: демо по умолчанию включает 20 инструментов из 6 серверов. Только эти 20 прошли порог 80%+ точности на single-step тесте. Остальные 55 — extended set, который Liquid AI пока не рекомендуют для продакшена.

Конфигурация — в config.yaml:

enabled_servers:
  - filesystem
  - document
  - security
  - audit
  - system
  - clipboard

enabled_tools:
  - filesystem.list_dir
  - filesystem.read_file
  - document.extract_text
  - security.scan_for_secrets
  # 20 инструментов в базовом наборе

Добавить свой MCP-сервер: создаёшь директорию в mcp-servers/, реализуешь на TypeScript или Python, перезапускаешь — auto-discovery подхватит.

Бенчмарки: быстро, но не умно

Вот цифры из внутреннего тестирования Liquid AI на Apple M4 Max (100 промптов, 67 инструментов, 13 MCP-серверов):

  • LFM2-24B-A2B — 80% accuracy, 390мс латенси, 26% multi-step
  • Mistral-Small-24B — 85% accuracy, 1,239мс, 66% multi-step
  • Gemma 3 27B — 91% accuracy, 24,088мс, 48% multi-step

Liquid AI формулируют это как «94% точности лучшей dense-модели при 3% её латенси». Математически верно: 80/85 ≈ 94%, 390/24088 ≈ 1.6%. Но сравнивать своё accuracy с Mistral, а latency с Gemma — приём из маркетинга.

Честная картина: модель в 3 раза быстрее ближайшего конкурента (Mistral) при потере 5% accuracy на single-step. Это реальное преимущество для задач, где latency критична.

Но независимые замеры Artificial Analysis рисуют другую картину: intelligence index 10 из 50, место #31 из 50 моделей. Медиана — 12. Модель быстрая (#4 по скорости, 231 tok/s), но по глубине рассуждений — ниже средней.

По категориям single-step точность выглядит так:

  • Calendar — 100% (7/7)
  • Audit — 100% (3/3)
  • Security/Privacy — 90% (9/10)
  • Task Management — 88% (7/8)
  • Document Processing — 83% (10/12)
  • File Operations — 80% (12/15)

Чем сложнее инструмент, тем ниже точность. Calendar с 7 промптами — не то же самое, что File Operations с 15.

Архитектура приложения

LocalCowork — это Tauri 2.0 приложение:

React/TypeScript (UI)
       ↓
Rust (Agent Core: ConversationManager, ToolRouter,
      MCP Client, Orchestrator, ToolPreFilter, Audit)
       ↓
OpenAI-compatible API @ localhost (llama-server)
       ↓
14 MCP-серверов (8 TypeScript + 6 Python, auto-discovery)

857 тестов: 357 на Rust, юнит-тесты TypeScript и Python, интеграционные, и 180 prompt-to-tool маппингов. Серьёзный уровень для open-source проекта.

Интересная деталь — ToolPreFilter. Перед отправкой промпта модели, система фильтрует описания инструментов, оставляя только релевантные. При 75 инструментах и 32K контексте без этого окно переполняется описаниями. Похожий подход использует OpenAI в GPT-5.4 — они назвали это Tool Search и заявляют 47% экономии токенов.

Два мира агентов: офлайн vs облако

На той же неделе Cursor выкатил Automations — полную противоположность LocalCowork. Cursor Automations запускают агентов в облачных sandbox-ах, триггерятся на GitHub PR, Slack-сообщения, PagerDuty-инциденты, учатся на прошлых запусках и работают 24/7.

Два подхода к одной проблеме «AI-агент выполняет задачи за разработчика»:

  • LocalCowork — всё на твоей машине, zero data egress, compliance-ready, но 26% multi-step и только когда ноутбук включён
  • Cursor Automations — облако, 24/7, триггеры из CI/CD, память между запусками, но данные уходят на серверы Cursor

Для стартапа, который двигается быстро и не оглядывается на compliance — Cursor Automations. Для банка, который обрабатывает PII — LocalCowork. Вопрос не в том, что лучше, а в том, куда уходят твои данные.

Подводные камни

Multi-step chains — 26% completion rate. Главная проблема. Попроси «найди PDF → извлеки текст → проверь на PII → зашифруй» — и в 74% случаев цепочка развалится. По данным Liquid AI, cross-server transitions ломаются у всех тестируемых моделей. Но 26% означает: для сложных workflow нужен человек, подтверждающий каждый шаг. LFM2.5 с RL post-training анонсирован, но дат нет.

Не для кодинга. На карточке модели прямо написано: «Not Recommended: Coding tasks». Если ищешь локальную замену Claude Code — это не оно.

32K контекст. Claude Opus — 200K, GPT-5.4 — миллион. 32 768 токенов — ограничение. Описания 20 инструментов + системный промпт + диалог съедают заметную часть окна. При 75 инструментах контекст просто не вместит все описания — отсюда и ToolPreFilter.

«Sibling confusion». Из отчёта Liquid AI: модель путает похожие инструменты внутри одного сервера. Просишь read_file — вызывает list_dir. 12 из 67 инструментов страдают от этого паттерна.

Лицензия — не Apache 2.0. Liquid AI пишут «open license based on Apache 2.0», но фактически модель под LFM Open License v1.0. Приложение LocalCowork — MIT. Для production-использования модели стоит прочитать полный текст лицензии.

Альтернативы

  • Goose (Block/Square) — open-source AI-агент с MCP, работает с любой моделью через Ollama, Claude API или OpenAI. CLI + десктоп-приложение. Нет привязки к конкретному LLM — подключаешь Llama 4, Qwen или Claude. Гибче по выбору модели, но без готового набора из 75 инструментов и без аудит-логов из коробки.

  • Jan — офлайн ChatGPT с MCP. Красивый UI, скачивание моделей в один клик, OpenAI-совместимый API. Но это чат-интерфейс, не агентный фреймворк — нет встроенного RAG, OCR или security-сканирования. Для «поговорить с локальной моделью» — отличный вариант. Для агентных задач — мало.

  • AnythingLLM — full-stack локальное AI-приложение с RAG, агентами и MCP. Ближе всего к LocalCowork по возможностям: работает через Docker, поддерживает десятки моделей и бэкендов. Но нет Tauri-обёртки, нет ToolPreFilter, нет готового пакета из 14 MCP-серверов. Больше конструктор, чем готовый продукт.

Вердикт

LocalCowork — первая попытка собрать полный агентный стек для офлайн-работы: модель, MCP-серверы, аудит, pre-filter — в одном десктопном приложении. Архитектура LFM2 (30 свёрток + 10 attention) — реально интересный инженерный подход, который даёт 3× выигрыш по скорости при минимальной потере точности на single-step задачах.

Стоит попробовать, если ты в regulated-индустрии и тебе нужны простые одношаговые операции: сканирование PII, извлечение текста из PDF, работа с файловой системой. Или если тебе просто интересно, как выглядит пост-трансформерная архитектура на практике.

Не стоит, если нужны многошаговые цепочки (26% completion), кодинг (модель прямо предупреждает), или контекст больше 32K токенов.

Как попробовать

  1. Убедись, что есть Node.js 20+, Python 3.11+, Rust 1.77+ и Mac с минимум 16 ГБ RAM (рекомендуется 36 ГБ)

  2. Скачай модель (~14 ГБ):

pip install huggingface-hub
python3 -c "
from huggingface_hub import hf_hub_download
hf_hub_download('LiquidAI/LFM2-24B-A2B-Preview',
                'LFM2-24B-A2B-Preview-Q4_K_M.gguf',
                local_dir='$HOME/Projects/_models/')
"
  1. Клонируй и запусти:
git clone https://github.com/Liquid4All/cookbook.git
cd cookbook/examples/localCoWork
./scripts/setup-dev.sh
./scripts/start-model.sh  # в первом терминале
cargo tauri dev            # во втором терминале
  1. Первые промпты для проверки:

    • «Покажи файлы в ~/Documents» — filesystem single-step
    • «Просканируй этот файл на секреты» — security tool
    • «Извлеки текст из PDF и сделай summary» — двухшаговая цепочка (проверишь, попадёшь ли в 26%)
  2. Документация, tool registry и benchmark study: github.com/Liquid4All/cookbook

$ ls ./related/

Похожие статьи

subscribe.sh

$ cat /dev/blog/updates

> Свежие заметки о программировании,

> DevOps и AI — прямо в мессенджер

./subscribe