MarkTechPost→ оригинал

Perplexity выпустила pplx-embed: модели эмбеддингов, которые меняют правила поиска

Perplexity выпустила pplx-embed — коллекцию мультиязычных моделей эмбеддингов, оптимизированных для поиска в масштабах веба. Модели построены на архитектуре Qwe

Perplexity выпустила pplx-embed: модели эмбеддингов, которые меняют правила поиска
Источник: MarkTechPost. Коллаж: Hamidun News.

Компания Perplexity, за последние два года превратившаяся из нишевого поискового стартапа в одного из самых заметных игроков AI-индустрии, сделала ещё один стратегически важный шаг. Она выпустила pplx-embed — семейство мультиязычных моделей эмбеддингов, которые, по заявлению разработчиков, устанавливают новый стандарт качества для задач информационного поиска в масштабах всего интернета. И если раньше Perplexity была прежде всего потребителем чужих моделей, то теперь она всё увереннее заявляет о себе как создатель собственной инфраструктуры.

Чтобы понять значимость этого релиза, стоит разобраться, что такое эмбеддинги и почему они критически важны. Эмбеддинг — это числовое представление текста в многомерном пространстве, своего рода математический отпечаток смысла. Когда вы вводите запрос в поисковую систему, именно модель эмбеддингов определяет, какие документы семантически близки к вашему вопросу. Качество этой модели напрямую влияет на то, насколько релевантные результаты вы получите. До сих пор золотым стандартом в этой области оставались проприетарные решения от OpenAI, Cohere и Google, а среди открытых моделей лидировали разработки из Китая и отдельные проекты вроде E5 от Microsoft.

Pplx-embed построена на базе архитектуры Qwen3, но с принципиальной модификацией. Большинство современных языковых моделей используют каузальное (однонаправленное) внимание — они читают текст слева направо, как человек читает книгу, и каждый токен «видит» только то, что было до него. Это отлично работает для генерации текста, но для задач эмбеддинга это серьёзное ограничение. Когда нужно создать целостное представление документа, модель должна учитывать контекст в обоих направлениях — и то, что стоит до слова, и то, что после него. Perplexity решила эту проблему, переключив архитектуру на двунаправленное внимание, фактически вернувшись к идеям, заложенным ещё в BERT, но на качественно новом уровне масштаба и сложности.

Вторая ключевая инновация — использование диффузионного подхода в процессе создания эмбеддингов. Детали реализации пока раскрыты не полностью, но сам принцип заимствован из генеративных моделей изображений: вместо того чтобы получать представление текста за один проход, модель итеративно уточняет его, постепенно «очищая» от шума. Для работы с реальными веб-данными, которые по определению зашумлены — битые разметки, рекламные вставки, дублированный контент, смесь языков — такой подход может оказаться решающим преимуществом. Именно устойчивость к шуму отличает модель, которая хорошо работает на чистых бенчмарках, от модели, которая справляется с хаосом реального интернета.

Мультиязычность pplx-embed заслуживает отдельного внимания. Qwen3, лежащая в основе модели, изначально обучалась на данных более чем на ста языках, и Perplexity, судя по всему, сохранила и усилила это свойство. Для компании, чей поисковый продукт работает глобально, это не просто приятный бонус, а производственная необходимость. Пользователь из Токио, Москвы или Сан-Паулу должен получать одинаково качественные результаты, и единая мультиязычная модель эмбеддингов — самый элегантный способ этого добиться.

Стратегический контекст этого релиза не менее важен, чем технический. Perplexity долгое время зависела от внешних поставщиков моделей — от OpenAI для генерации, от различных провайдеров для эмбеддингов. Каждая такая зависимость — это и финансовый риск, и потолок для оптимизации. Выпуская собственные модели эмбеддингов, Perplexity получает полный контроль над ключевым звеном своего поискового пайплайна. Она может настраивать модели под свои специфические нужды, оптимизировать латентность и стоимость инференса, а главное — перестаёт платить за каждый вызов API конкурентам. Для компании, которая обрабатывает миллионы поисковых запросов ежедневно, экономия может исчисляться миллионами долларов в год.

Для более широкой индустрии этот релиз сигнализирует о важном тренде: вертикальная интеграция в AI ускоряется. Компании, которые начинали как «обёртки» над чужими моделями, одна за другой начинают строить собственные стеки. Perplexity следует по пути, который уже прошли другие — от потребления API к созданию собственных моделей, от зависимости к автономии. Тот факт, что модели позиционируются как production-ready альтернатива проприетарным API, говорит о том, что Perplexity не просто решает свои внутренние задачи, но и присматривается к рынку инфраструктурных AI-сервисов.

Pplx-embed — это не революция, а закономерный эволюционный шаг, но шаг весьма показательный. Perplexity демонстрирует, что готова конкурировать не только на уровне пользовательского продукта, но и на уровне базовых технологий. Если заявленное качество SOTA подтвердится независимыми бенчмарками, у OpenAI и Google появится ещё один серьёзный конкурент — причём именно там, где это больнее всего: в инфраструктуре, на которой строится весь современный AI-поиск.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…