DeepSeek · LLM-мониторинг
Экспансия в Азию и другой корпус данных — DeepSeek
Вы смотрите на западные чаты, а часть аудитории уже спрашивает китайский стек с бесплатным доступом и огромной базой в Азии. DeepSeek обучен на иных данных, чем OpenAI или Anthropic — бренды часто получают неожиданно высокую или низкую видимость. Отдельный срез отвечает на вопрос: «как нас видят там, а не только в ChatGPT».
Как выглядит готовый отчёт
В примере отчёта выделен DeepSeek: видно, как часто модель упоминает бренд и что именно она отвечает в ваших сценариях.
Carapelli
Упоминания по моделям (демо-прогон)
Подсветка: DeepSeek — фокус этой страницы. Цифры иллюстративные.
Конкуренты в этом срезе
Живой отчёт устроен так же: метрики, разбивка по моделям, цитаты, конкуренты и источники — для вашего бренда и выбранного набора моделей.
Бенчмаркинг
Срез с датой и временем
Каждый прогон фиксирует момент завершения — удобно сравнивать «до / после» смены позиционирования или контента.
Метод
Органические сценарии
Название бренда не подставляется в текст вопроса; оцениваем, упоминают ли модели вас в типовых запросах по нише.
Контекст
Рядом с DeepSeek
В том же запуске можно включить другие модели и проверить, специфична ли картина для DeepSeek или повторяется в стеке.
О модели
DeepSeek — китайский игрок с массовой аудиторией в Азии; для брендов с планами в регионе это первый практический сигнал, появляетесь ли вы в «восточном» ИИ-слое.
Корпус и пост-тренировка отличаются от западных флагманов: в одной нише DeepSeek может ранжировать совсем других конкурентов. Бесплатный доступ ускоряет приток пользователей, в том числе из РФ.
Как мы измеряем видимость
Стандартные органические пакеты промптов; бренд не в тексте вопроса; метрики согласованы с остальными моделями в Getllmspy.
- DeepSeek + ChatGPT + Claude + Gemini и др. в одной проверке
- LLM-Score, доля голоса, конкуренты
- Цитаты для проверки фактов вручную
Блоки отчёта
Сводка и время среза
В шапке отчёта — когда проверка завершена и какие модели участвовали. Это опорная точка для сравнения «до/после» кампаний.
LLM-Score и доля голоса
Сводный индекс по упоминаниям, позиции в списках и тональности; доля моделей, где бренд появился хотя бы раз по сценарию.
Конкуренты и подборки
Кто рядом с вами в ответах DeepSeek: названия из текста, частота, контекст сравнения или рекомендаций.
Цитаты и нюансы формулировок
Фрагменты ответов для ручной проверки: как именно модель описывает категорию и ваш бренд.
Те же промпты на других моделях
Параллельный прогон Claude, Gemini, Perplexity и др. — чтобы увидеть, специфичен ли срез для DeepSeek.
От запуска до снимка для презентации
Бренд и ниша
Контекст бренда, сайт, категория, язык и тип проверки — от этого выбирается пакет промптов.
Набор моделей
Выбираете семейства LLM; одинаковые сценарии выполняются параллельно по всем выбранным.
Прогон на сервере
Задание идёт на сервере — вкладку можно закрыть, отчёт открыть из «Истории», когда статус «готово».
Отчёт
LLM-Score, доля голоса, конкуренты, цитаты, источники — можно повторять замер и выгружать.
Если DeepSeek перечисляет других игроков вместо вас, усильте документацию, интеграции и технический PR.