Perplexity · LLM-мониторинг
Ссылки в ответе — видно, какой сайт «забрал» упоминание: Perplexity
Конкурент попал в ответ с ссылкой на обзор, а вас нет — в Perplexity это видно буквально по URL, а не только по догадкам. Среди массовых ассистентов Perplexity выделяется тем, что показывает источники прямо в интерфейсе; отдельный срез нужен, чтобы ловить, кто цитируется в «лучших подборках».
Как выглядит готовый отчёт
В демо выделена Perplexity: видно долю сценариев с упоминанием бренда и отрывки ответов именно этой модели (вместе с сигналами источников в отчёте).
Carapelli
Упоминания по моделям (демо-прогон)
Подсветка: Perplexity — фокус этой страницы. Цифры иллюстративные.
Конкуренты в этом срезе
Живой отчёт устроен так же: метрики, разбивка по моделям, цитаты, конкуренты и источники — для вашего бренда и выбранного набора моделей.
Бенчмаркинг
Срез с датой и временем
Каждый прогон фиксирует момент завершения — удобно сравнивать «до / после» смены позиционирования или контента.
Метод
Органические сценарии
Название бренда не подставляется в текст вопроса; оцениваем, упоминают ли модели вас в типовых запросах по нише.
Контекст
Рядом с Perplexity
В том же запуске можно включить другие модели и проверить, специфична ли картина для Perplexity или повторяется в стеке.
О модели
Perplexity в публичном UX опирается на явные ссылки и сноски к источникам — если конкурента подтянул конкретный медиа-сайт или маркетплейс, это можно увидеть в цепочке ответа.
Сервис быстро набирает аудиторию как «поиск с ИИ» среди молодой tech-аудитории; для медиа, SaaS и e-commerce критичны подборки «лучших X» со ссылками — там Perplexity особенно жёстко сжимает выдачу.
Как мы измеряем видимость
Те же органические сценарии Getllmspy: бренд не в формулировке вопроса; анализируем текст ответа и сигналы цитирования, доступные в отчёте.
- Сравнение Perplexity с ChatGPT, Claude, Gemini и др.
- Конкуренты, цитаты, LLM-Score, доля голоса
- Повтор после обновления карточек товаров и обзоров
Блоки отчёта
Сводка и время среза
В шапке отчёта — когда проверка завершена и какие модели участвовали. Это опорная точка для сравнения «до/после» кампаний.
LLM-Score и доля голоса
Сводный индекс по упоминаниям, позиции в списках и тональности; доля моделей, где бренд появился хотя бы раз по сценарию.
Конкуренты и подборки
Кто рядом с вами в ответах Perplexity: названия из текста, частота, контекст сравнения или рекомендаций.
Цитаты и нюансы формулировок
Фрагменты ответов для ручной проверки: как именно модель описывает категорию и ваш бренд.
Те же промпты на других моделях
Параллельный прогон Claude, Gemini, Perplexity и др. — чтобы увидеть, специфичен ли срез для Perplexity.
От запуска до снимка для презентации
Бренд и ниша
Контекст бренда, сайт, категория, язык и тип проверки — от этого выбирается пакет промптов.
Набор моделей
Выбираете семейства LLM; одинаковые сценарии выполняются параллельно по всем выбранным.
Прогон на сервере
Задание идёт на сервере — вкладку можно закрыть, отчёт открыть из «Истории», когда статус «готово».
Отчёт
LLM-Score, доля голоса, конкуренты, цитаты, источники — можно повторять замер и выгружать.
Если Perplexity редко цитирует ваш сайт, усильте первичные источники, сравнения и независимые обзоры.