бургерЛого хедера
Поиск
avatar

LinkedIn внедряет ИИ-поиск вакансий на естественном языке для всех пользователей в США

Появление поиска на естественном языке меняет подход пользователей к поиску информации. LinkedIn, активно внедряющий различные ИИ-модели в течение последнего года, надеется, что эта тенденция распространится и на поиск работы.

image

Новый ИИ-инструмент для подбора вакансий, теперь доступный всем пользователям LinkedIn в США, использует специально обученные и оптимизированные модели. Эти модели, "натасканные" на собственной базе знаний профессиональной соцсети, анализируют запросы на естественном языке, чтобы точнее подбирать подходящие вакансии.

Как работает поиск:
"Новый поиск позволяет участникам описывать свои цели своими словами и получать результаты, которые действительно отражают их запросы", — заявил Эрран Бергер, вице-президент LinkedIn по разработке продуктов, в комментарии для VentureBeat. — "Это первый шаг в большом пути к тому, чтобы сделать поиск работы более интуитивным, доступным и эффективным для каждого".

Ранее LinkedIn отмечал, что ключевая проблема пользователей — чрезмерная зависимость от точных ключевых слов. Часто общий запрос (например, "репортер") выдает нерелевантные вакансии (скажем, "судебный репортер"), требующие совершенно других навыков.

Венцзин Чжан, вице-президент LinkedIn по инжинирингу, пояснил в интервью: "Раньше, используя ключевые слова, мы искали точное совпадение. Но если в описании вакансии случайно упоминалось слово "репортер", мы показывали ее, даже если она не подходила соискателю".

Теперь платформа понимает смысл запросов. Вместо "инженер-программист" можно задать вопрос: "Найди недавно опубликованные вакансии инженера-программиста в Кремниевой долине".

Техническая реализация:
Для этого LinkedIn радикально переработал поисковый движок. "Сначала система должна понять запрос, затем — найти релевантные вакансии в нашей базе, и наконец — правильно ранжировать результаты, чтобы самые подходящие были наверху", — объяснил Чжан.

Ранние методы (таксономия, ранжирующие модели, устаревшие LLM) оказались неспособны к глубокому семантическому анализу. Компания перешла на современные, предварительно обученные большие языковые модели (LLM), чтобы усилить возможности обработки естественного языка (NLP).

Однако эксплуатация LLM требует значительных вычислительных ресурсов. Чтобы снизить затраты на GPU, LinkedIn применил метод дистилляции (сжатия) моделей. LLM разделили на два этапа:

  1. Поиск данных и извлечение информации.

  2. Ранжирование результатов.
    Используя "учительскую" модель для оценки соответствия запроса и вакансии, инженеры добились согласованности этапов поиска и ранжирования.

Этот подход также позволил сократить количество этапов в системе поиска вакансий с девяти, многие из которых дублировали функции. "Мы применили стандартную технику многоцелевой оптимизации. Важно, чтобы этап поиска ранжировал документы по тем же критериям, что и этап ранжирования, но без излишней нагрузки на разработчиков", — отметили в LinkedIn.

Дополнительно был разработан механизм генерации персонализированных подсказок для пользователей.

Контекст рынка:
LinkedIn — не единственный, кто видит потенциал LLM для корпоративного поиска. Google прогнозирует, что к 2025 году благодаря продвинутым моделям такие системы станут мощнее. Модели вроде Cohere’s Rerank 3.5 разрушают языковые барьеры в компаниях, а "агенты" для анализа внутренних данных (OpenAI, Google, Anthropic) пользуются растущим спросом.

За последний год LinkedIn представил несколько ИИ-функций, включая октябрьский запуск ассистента для рекрутеров. Глава подразделения ИИ LinkedIn Дипак Агарвал расскажет о развитии этих инициатив, включая масштабирование "Помощника по найму", на предстоящей конференции VB Transform в Сан-Франциско.

0 комментариев

Вас могут заинтересовать