бургерЛого хедера
Поиск
avatar

Databricks инвестирует в Mistral и переносит свои модели искусственного интеллекта на платформу интеллектуального анализа данных

Сегодня Databricks, быстрорастущая компания по созданию инфраструктуры данных, возглавляемая Али Годси, объявила о сотрудничестве с парижской компанией Mistral, хорошо финансируемым стартапом, который вызвал большой резонанс в мировом сообществе ИИ благодаря своему растущему семейству высокопроизводительных больших языковых моделей (LLM) - многие из них с открытым исходным кодом.

image

В рамках соглашения Databricks инвестирует в Mistral нераскрытую сумму, дополнив раунд серии А, и подключит к своей платформе анализа данных избранных магистрантов Mistral.

Этот шаг приведет к прямой интеграции моделей, что позволит корпоративным пользователям использовать их вместе со своими данными для генеративных приложений искусственного интеллекта без каких-либо изменений в безопасности, конфиденциальности и управлении, которые уже предлагает платформа Databricks.

Это событие знаменует собой добавление еще одного заметного партнера по распространению для компании Mistral, которая активно продвигается вперед за счет партнерства с промышленными предприятиями. Совсем недавно она объявила об аналогичном партнерстве со Snowflake, которая напрямую конкурирует с Databricks через свои облачные предложения данных, а также с Microsoft, последнее из которых вызвало критику корпоративного захвата и интерес регулирующих органов.В опубликованном сегодня блоге Databricks подтвердила, что сотрудничество с Mistral приведет к нативной интеграции двух моделей генерации текста от компании - Mistral 7B и Mixtral 8x7B, обе с открытым исходным кодом.

Первая представляет собой небольшую трансформационную модель с 7 миллиардами параметров, обученную с длиной контекста 8k, и очень эффективна в обслуживании. Вторая представляет собой разреженную смесь экспертных моделей (SMoE), поддерживающую длину контекста 32k и способную обрабатывать английский, французский, итальянский, немецкий и испанский языки. Mixtral 8x7B даже превосходит Llama 2 70B от Meta (на основе которой она обучалась) и GPT-3.5 от OpenAI в нескольких бенчмарках, включая GSM-8K и MMLU, а также может похвастаться более быстрым выводом.

Пользователи Databricks Data Intelligence Platform теперь могут найти обе эти модели на торговой площадке платформы, а также информацию об их возможностях и различных способах использования.По словам представителей Databricks, пользователи могут экспериментировать с моделями в Mosaic AI Playground, доступном через консоль платформы, использовать их в качестве конечных точек оптимизированных моделей через Mosaic AI Model Serving или настраивать их с помощью собственных данных, размещенных на платформе (Mosaic AI Foundation Model Adaptation), для решения конкретных задач.

0 комментариев

Вас могут заинтересовать