К содержимому

Perplexity · LLM-мониторинг

Ссылки в ответе — видно, какой сайт «забрал» упоминание: Perplexity

Конкурент попал в ответ с ссылкой на обзор, а вас нет — в Perplexity это видно буквально по URL, а не только по догадкам. Среди массовых ассистентов Perplexity выделяется тем, что показывает источники прямо в интерфейсе; отдельный срез нужен, чтобы ловить, кто цитируется в «лучших подборках».

Как выглядит готовый отчёт

В демо выделена Perplexity: видно долю сценариев с упоминанием бренда и отрывки ответов именно этой модели (вместе с сигналами источников в отчёте).

Пример отчёта (демо-данные)

Carapelli

Premium Olive Oil · Global · Завершено 1 апр. 2026 г., 12:00

Полный демо-отчёт
31
LLM-Score
18%
Доля голоса
4.2
Средняя позиция

Упоминания по моделям (демо-прогон)

Подсветка: Perplexity — фокус этой страницы. Цифры иллюстративные.

ChatGPT0%
Claude100%
Gemini100%
Perplexity0%
Grok100%
DeepSeek100%
ChatGPT
«Лучшие оливковые масла для ежедневной готовки»
Carapelli — узнаваемая итальянская марка с устойчивым качеством Extra Virgin.
ChatGPT
«Сравнение премиум-масел»
Среди премиум-сегмента часто называют Bertolli, Filippo Berio и Carapelli — у каждого свой профиль вкуса.

Конкуренты в этом срезе

BertolliFilippo BerioKirkland (Costco)Colavita+ остальные в полном отчёте

Живой отчёт устроен так же: метрики, разбивка по моделям, цитаты, конкуренты и источники — для вашего бренда и выбранного набора моделей.

Бенчмаркинг

Срез с датой и временем

Каждый прогон фиксирует момент завершения — удобно сравнивать «до / после» смены позиционирования или контента.

Метод

Органические сценарии

Название бренда не подставляется в текст вопроса; оцениваем, упоминают ли модели вас в типовых запросах по нише.

Контекст

Рядом с Perplexity

В том же запуске можно включить другие модели и проверить, специфична ли картина для Perplexity или повторяется в стеке.

О модели

Perplexity в публичном UX опирается на явные ссылки и сноски к источникам — если конкурента подтянул конкретный медиа-сайт или маркетплейс, это можно увидеть в цепочке ответа.

Сервис быстро набирает аудиторию как «поиск с ИИ» среди молодой tech-аудитории; для медиа, SaaS и e-commerce критичны подборки «лучших X» со ссылками — там Perplexity особенно жёстко сжимает выдачу.

Как мы измеряем видимость

Те же органические сценарии Getllmspy: бренд не в формулировке вопроса; анализируем текст ответа и сигналы цитирования, доступные в отчёте.

  • Сравнение Perplexity с ChatGPT, Claude, Gemini и др.
  • Конкуренты, цитаты, LLM-Score, доля голоса
  • Повтор после обновления карточек товаров и обзоров

Блоки отчёта

Сводка и время среза

В шапке отчёта — когда проверка завершена и какие модели участвовали. Это опорная точка для сравнения «до/после» кампаний.

LLM-Score и доля голоса

Сводный индекс по упоминаниям, позиции в списках и тональности; доля моделей, где бренд появился хотя бы раз по сценарию.

Конкуренты и подборки

Кто рядом с вами в ответах Perplexity: названия из текста, частота, контекст сравнения или рекомендаций.

Цитаты и нюансы формулировок

Фрагменты ответов для ручной проверки: как именно модель описывает категорию и ваш бренд.

Те же промпты на других моделях

Параллельный прогон Claude, Gemini, Perplexity и др. — чтобы увидеть, специфичен ли срез для Perplexity.

От запуска до снимка для презентации

Бренд и ниша

Контекст бренда, сайт, категория, язык и тип проверки — от этого выбирается пакет промптов.

Набор моделей

Выбираете семейства LLM; одинаковые сценарии выполняются параллельно по всем выбранным.

Прогон на сервере

Задание идёт на сервере — вкладку можно закрыть, отчёт открыть из «Истории», когда статус «готово».

Отчёт

LLM-Score, доля голоса, конкуренты, цитаты, источники — можно повторять замер и выгружать.

Если Perplexity редко цитирует ваш сайт, усильте первичные источники, сравнения и независимые обзоры.

Вопросы и ответы