Какой веб-поиск подключить к AI-агенту — от встроенного WebSearch до Tavily, Exa и Linkup
Какой веб-поиск подключить к AI-агенту — от встроенного WebSearch до Tavily, Exa и Linkup
AI-агент без доступа к вебу — как программист без Stack Overflow. Технически может работать, но половина ответов будет из прошлого года. Claude Code, Codex CLI, Cursor — все они умеют искать в интернете, но качество поиска отличается радикально: от «заголовок + ссылка» до полноценного семантического исследования с цитатами.
TL;DR: Встроенный WebSearch в Claude Code покрывает 80% задач. Для серьёзной работы ставьте Tavily MCP (быстрый, дешёвый, заточен под RAG) или Exa (семантический поиск, код, люди). Linkup — тёмная лошадка с лучшим результатом на SimpleQA (91%). Brave MCP больше не бесплатный.
Зачем AI-агенту вообще нужен поиск
Claude Code из коробки знает всё, что было до мая 2025. Но если вы спрашиваете про свежий релиз, актуальную документацию или баг, который пофиксили вчера — модель честно галлюцинирует или говорит «я не знаю».
Поисковый инструмент решает три задачи:
- Актуальность — агент находит свежие данные вместо устаревших
- Верификация — проверяет свои ответы по реальным источникам
- Исследование — собирает информацию из нескольких источников для deep research
Проблема в том, что поисковых API для агентов сейчас больше десятка, и каждый заявляет, что он «лучший». Разбираемся, что из этого реально работает.
Встроенный WebSearch в Claude Code: что он умеет и где сливает
Claude Code использует два инструмента для работы с вебом:
WebSearch — принимает поисковый запрос, возвращает заголовки и ссылки. Не текст страниц, не сниппеты — только title + url. Поддерживает фильтрацию по доменам через allowed_domains и blocked_domains.
WebFetch — принимает конкретный URL и вопрос, возвращает сжатый ответ. Под капотом HTML конвертируется в Markdown, обрезается до 100 КБ, и Claude 3.5 Haiku формулирует ответ. Кеш 15 минут.
Работает это в два шага: WebSearch находит ссылки → WebFetch читает нужные страницы. Просто и предсказуемо.
Где хватает встроенного поиска:
- Быстро проверить актуальную документацию
- Найти GitHub-репозиторий по названию
- Уточнить синтаксис API
Где не хватает:
- Нет сниппетов в результатах — агент вынужден делать отдельный WebFetch на каждую ссылку
- Нет контроля над количеством результатов
- Нет семантического поиска — только ключевые слова
- Не работает на AWS Bedrock и Google Vertex
По оценке apiyi.com, встроенная связка WebSearch + WebFetch закрывает около 80% повседневных потребностей. Остальные 20% — это когда нужен более глубокий или быстрый поиск.
MCP-плагины: как расширить поиск в Claude Code
Claude Code поддерживает подключение внешних поисковых движков через MCP (Model Context Protocol). После установки MCP-плагина агент сам выбирает, какой инструмент использовать — встроенный или внешний — в зависимости от запроса.
На практике, по отзывам сообщества, после установки MCP-плагина Claude Code начинает предпочитать его, потому что внешние инструменты обычно возвращают более богатые результаты.
Вот шесть основных плагинов:
Brave Search MCP — независимый индекс на 30+ млрд страниц, без трекинга. Раньше Anthropic рекомендовали его как дефолтный выбор. Но в феврале 2026 Brave убрал бесплатный тир: вместо 5 000 бесплатных запросов в месяц — $5 кредитов (~1 000 запросов), и кредитка теперь обязательна.
Tavily MCP — заточен под AI-агентов и RAG-пайплайны. 1 000 бесплатных запросов в месяц. Результаты приходят с оценкой релевантности, готовые к инъекции в контекстное окно. Установка:
claude mcp add tavily -- npx -y tavily-mcp@latest
Exa MCP — семантический поиск на нейронных эмбеддингах. Понимает смысл запроса, а не просто ключевые слова. Умеет искать людей (1B+ профилей), компании и код — этого нет ни у кого другого.
Perplexity Sonar MCP — не поисковик, а «движок ответов». Ищет, обрабатывает и суммаризирует в один API-вызов с цитатами. Идеален для сложных вопросов, но возвращает markdown-ответ, а не структурированные данные.
Firecrawl MCP — больше про скрейпинг, чем про поиск. Эндпоинт /agent автономно исследует веб: ищет, переходит по ссылкам, извлекает структурированные данные. 8 инструментов в одном MCP.
Open-WebSearch MCP — полностью бесплатный, агрегирует Bing и DuckDuckGo. Минимальное качество, но ноль затрат.
Большое сравнение: 7 поисковых API для AI-агентов
Теперь к цифрам. Собрал данные из бенчмарков humai.blog, exa.ai, firecrawl.dev и linkup.so.
Точность (SimpleQA — 4 326 вопросов по фактам)
- Linkup Deep Search — 91.0% F-Score (SOTA на март 2026)
- Perplexity Sonar Pro — 86%
- Linkup Standard — 85%
- Exa — 85% (по данным humai.blog)
- Perplexity Sonar — 77%
- Google Search API — 38% (не предназначен для агентов)
Латенси (медианное время ответа)
- Tavily — 187 мс (по данным humai.blog, самый быстрый)
- Exa Fast — ~350 мс
- Firecrawl — sub-second
- Exa Deep — ~3.5 сек
- Perplexity Sonar — 2.4 сек (медленнее всех — потому что генерирует ответ, а не просто ищет)
Разница между самым быстрым и самым медленным — 15×. Для агента, который делает 10 поисков за сессию, это разница между 2 и 30 секундами ожидания.
Цены (за 1 000 запросов)
- Tavily — $8 (PAYG) или от $2/1K на плане Starter ($99/мес за 50K)
- Exa — $5 за поиск + $1 за 1K страниц с текстом
- Brave — $5 (бесплатный тир убран в феврале 2026)
- Perplexity Sonar — $5 + $0.30/1M токенов
- Perplexity Sonar Pro — $5 + $3/1M токенов
- Linkup — цены по запросу (пока в раннем доступе)
- Firecrawl — от $16/мес за 3K кредитов (2 кредита = 10 результатов поиска)
На масштабе 100K запросов в месяц Tavily Enterprise обходится в $20-40, а Firecrawl — в $83. Exa и Perplexity значительно дороже.
Уникальные фишки
- Tavily — единственный, кто оптимизирован именно под RAG: результаты приходят с relevance score и структурированы для прямой вставки в контекст агента. Куплен Nebius за $275M в феврале 2026
- Exa — нейронный семантический поиск, поиск по людям (1B+ профилей), компаниям и коду. По бенчмарку WebWalker: 81% точности на multi-hop retrieval vs 71% у Tavily
- Linkup — SOTA на SimpleQA (91%), но пока мало интеграций и нет MCP-плагина
- Perplexity Sonar — возвращает готовый ответ с цитатами, а не список ссылок. Экономит токены агента на суммаризацию
- Firecrawl —
/agentэндпоинт для автономного веб-исследования, структурированное извлечение данных через Pydantic/Zod схемы
Когда что выбирать
Быстрая проверка фактов, ежедневная работа → встроенный WebSearch. Ноль настройки, 80% потребностей.
RAG-пайплайн, чатбот с поиском → Tavily. Самый быстрый (187 мс), дешёвый на масштабе, результаты уже структурированы для LLM.
Deep research, поиск по смыслу → Exa. Нейронный поиск понимает «найди статьи, похожие на X» — ключевые слова для этого не подходят.
Сложные вопросы с синтезом → Perplexity Sonar. Получаете готовый ответ с цитатами за один вызов, а не 10 ссылок, которые нужно парсить.
Скрейпинг + исследование → Firecrawl. Когда нужно не просто найти, а извлечь структурированные данные с десятков страниц.
Максимальная фактическая точность → Linkup. 91% на SimpleQA — лучший результат на рынке. Но пока мало интеграций.
Приватность → Brave. Независимый индекс, SOC 2 Type II, без трекинга. Для медицины, юридики, финансов.
Продвинутый подход — комбинировать: простые запросы через Tavily (быстро, дёшево), а сложные исследования через Perplexity или Exa. По данным humai.blog, такой роутинг снижает затраты на 40-60% при сохранении качества.
Подводные камни
Brave MCP больше не бесплатный. Если вы видите гайды 2025 года с «бесплатные 2 000 запросов в месяц» — это устаревшая информация. С февраля 2026 Brave перешёл на кредитную систему: $5 кредитов в месяц (~1 000 запросов), кредитка обязательна, и она теперь рабочий платёжный инструмент — не просто верификация. Можно выставить лимит $5 в дашборде, чтобы не превысить бесплатные кредиты.
Tavily иногда возвращает мёртвые ссылки. Индекс Tavily не всегда свежий — кешированные страницы, которые уже отдают 404. Особенно на быстро меняющихся сайтах. Если строите продакшн-пайплайн, добавляйте валидацию URL перед передачей контента в LLM.
Perplexity Sonar — самый медленный. 2.4 секунды медианного ответа — потому что под капотом не просто поиск, а генерация ответа с LLM. Для интерактивного агента, который делает 5-10 поисков за сессию, это ощутимо. Ещё момент: Sonar возвращает markdown-summary, а не структурированные данные — если вам нужен raw JSON для дальнейшей обработки, это не ваш вариант.
Лимит запроса в Tavily — 400 символов. Если агент формирует длинный поисковый запрос с контекстом, Tavily его обрежет. Документировано в community-форуме.
Exa дорогой на масштабе. $5 за 1 000 поисков + $1 за 1 000 страниц с текстом. На 100K запросов это уже $600+/мес — в 15 раз дороже Tavily Enterprise.
Linkup пока без MCP-плагина. Лучший результат на SimpleQA (91%), но интегрировать в Claude Code напрямую через MCP пока нельзя. Придётся писать обёртку или ждать.
Вердикт
Для типичного разработчика, который пользуется Claude Code ежедневно, встроенный WebSearch + Tavily MCP — оптимальная комбинация. WebSearch бесплатный и закрывает базовые потребности, Tavily даёт 1 000 запросов в месяц бесплатно и работает быстрее всех (187 мс). Exa стоит подключать, если вы занимаетесь исследованиями или часто ищете «по смыслу» — семантический поиск действительно работает лучше ключевых слов для сложных запросов. Linkup — самый точный, но пока сырой по интеграциям.
Как попробовать
-
Встроенный WebSearch уже работает в Claude Code — просто попросите агента что-нибудь поискать
-
Подключить Tavily MCP (бесплатно, 1 000 запросов/мес):
# Получите API-ключ на tavily.com claude mcp add tavily -- npx -y tavily-mcp@latest # Добавьте TAVILY_API_KEY в переменные окружения
- Подключить Exa MCP:
# Получите API-ключ на exa.ai claude mcp add exa -- npx -y exa-mcp-server # Добавьте EXA_API_KEY в переменные окружения
-
Попробуйте запросы разной сложности и сравните:
- Простой: «найди документацию по React 19 Server Components»
- Семантический: «найди статьи с подходом, похожим на React Server Components, но для Vue»
- Исследовательский: «собери данные о производительности AI-поисковых API из бенчмарков 2026 года»
-
Документация: Claude Code Web Tools, Tavily MCP, Exa MCP, Brave Search API