Alltokens

Perplexity: Embed V1 0.6B

PerplexityPerplexityОбновлено: 16 марта 2026 г.

Perplexity: Embed V1 0.6B — это компактная и быстрая модель для создания текстовых эмбеддингов, оптимизированная для плотного поиска в веб-масштабах. При объеме в 0.6 млрд параметров она обеспечивает минимальную задержку при генерации векторов, поддерживая контекст до 32 000 токенов.

Использовать через API

Метрики

Вход

₽/M

Выход

₽/M

Контекст

32k tokens

Параметры

7

Релиз

16 марта 2026 г.

Поддерживаемые параметры

frequency_penaltymax_tokenspresence_penaltytemperaturetop_ktop_pweb_search_options

Технический обзор

pplx-embed-v1-0.6B — одна из передовых текстовых встраиваемых моделей Perplexity, созданная для реального веб-масштабного поиска. pplx-embed-v1 оптимизирована для стандартного плотного текстового поиска, а модель с 0.6 миллиарда параметров предназначена для легковесной генерации встраиваемых представлений с низкой задержкой.

Кодинг
Инструменты
Длинный контекст
Мультимодальность
Веб-автоматизация

Смежные подборки

Сравнение с похожими моделями

Модель

Для чего

Perplexity: Embed V1 0.6B — это компактная и быстрая модель для создания текстовых эмбеддингов, оптимизированная для плотного поиска в веб-масштабах. При объеме в 0.6 млрд параметров она обеспечивает минимальную задержку при генерации векторов, поддерживая контекст до 32 000 токенов.

Контекст

32k

Цена ₽

— / —

Для чего

Старшая модель в линейке с большим количеством параметров для более точного семантического поиска, но с более высокой задержкой.

Контекст

32k

Цена ₽

— / —

Модель

Для чего

Популярная базовая модель для генерации эмбеддингов, ориентированная на задачи эффективного поиска и ранжирования текстов.

Контекст

512

Цена ₽

— / —

Когда выбирать

  • Необходима минимальная задержка (low-latency) при генерации эмбеддингов для высоконагруженных систем
  • Требуется обработка длинных текстовых фрагментов с контекстным окном до 32 000 токенов
  • Реализуется система плотного векторного поиска (dense retrieval) для веб-контента

Когда не выбирать

  • Требуется максимальная семантическая точность, которую могут обеспечить только модели с большим числом параметров
  • Задача не связана с генерацией векторов (эмбеддингов), а требует генерации текста
  • Необходима работа с модальностями, отличными от текстовой

FAQ

МИРVisaMastercardСБП
AllTokens

© 2026 Alltokens. Все права защищены.