Claude · LLM-мониторинг
Длинные аналитические ответы — важен не только факт упоминания, но и контекст и тон в Claude
Вы продаёте B2B или сложный продукт: клиент просит сравнение у ИИ и читает развёрнутый текст. Claude известен именно такими ответами — здесь важны не только «назвали / не назвали», но и как формулируют категорию, кого ставят рядом и в каком тоне. Отдельный срез по Claude показывает, не теряется ли бренд в этой ветке.
Как выглядит готовый отчёт
В демо ниже подсвечена строка Claude: доля сценариев с упоминанием бренда и фрагменты именно её ответов — без смешения с другими моделями.
Carapelli
Упоминания по моделям (демо-прогон)
Подсветка: Claude — фокус этой страницы. Цифры иллюстративные.
Конкуренты в этом срезе
Живой отчёт устроен так же: метрики, разбивка по моделям, цитаты, конкуренты и источники — для вашего бренда и выбранного набора моделей.
Бенчмаркинг
Срез с датой и временем
Каждый прогон фиксирует момент завершения — удобно сравнивать «до / после» смены позиционирования или контента.
Метод
Органические сценарии
Название бренда не подставляется в текст вопроса; оцениваем, упоминают ли модели вас в типовых запросах по нише.
Контекст
Рядом с Claude
В том же запуске можно включить другие модели и проверить, специфична ли картина для Claude или повторяется в стеке.
О модели
Claude позиционируется Anthropic как модель для длинных, структурированных ответов — типичный сценарий: списки плюсов/минусов, разбор вариантов, осторожные формулировки.
Аудитория Claude сильно смещена в сторону tech и B2B; рекомендации у модели относительно консервативны — если Claude всё же называет бренд в подборке, это сильнее сигнал, чем у более «разговорчивых» чатов.
Как мы измеряем видимость
Те же органические сценарии, что и для других моделей: бренд не в тексте вопроса, оценка — по фактическому ответу модели.
- Параллельный запуск Claude рядом с ChatGPT, Gemini, Perplexity и др.
- Извлечение конкурентов и цитат из длинных ответов Claude
- Повторяемые срезы после обновления сайта или PR
Блоки отчёта
Сводка и время среза
В шапке отчёта — когда проверка завершена и какие модели участвовали. Это опорная точка для сравнения «до/после» кампаний.
LLM-Score и доля голоса
Сводный индекс по упоминаниям, позиции в списках и тональности; доля моделей, где бренд появился хотя бы раз по сценарию.
Конкуренты и подборки
Кто рядом с вами в ответах Claude: названия из текста, частота, контекст сравнения или рекомендаций.
Цитаты и нюансы формулировок
Фрагменты ответов для ручной проверки: как именно модель описывает категорию и ваш бренд.
Те же промпты на других моделях
Параллельный прогон Claude, Gemini, Perplexity и др. — чтобы увидеть, специфичен ли срез для Claude.
От запуска до снимка для презентации
Бренд и ниша
Контекст бренда, сайт, категория, язык и тип проверки — от этого выбирается пакет промптов.
Набор моделей
Выбираете семейства LLM; одинаковые сценарии выполняются параллельно по всем выбранным.
Прогон на сервере
Задание идёт на сервере — вкладку можно закрыть, отчёт открыть из «Истории», когда статус «готово».
Отчёт
LLM-Score, доля голоса, конкуренты, цитаты, источники — можно повторять замер и выгружать.
Расхождение ChatGPT vs Claude — повод проверить, какие источники и формулировки лучше «доходят» до каждой модели.