Французский стартап Mistral AI, известный своими прорывными open-source решениями в области ИИ, вновь подтвердил приверженность сообществу разработчиков. После недавней критики за выпуск проприетарной модели Medium 3 компания объявила о партнёрстве со стартапом All Hands AI (создателем OpenDevin) и представила Devstral — открытую языковую модель на 24 млрд параметров, оптимизированную для задач автономной разработки ПО.
Компактная, но мощная
Devstral, в отличие от традиционных LLM для генерации кода, способна анализировать контекст между файлами, работать с крупными кодовыми базами и решать реальные задачи. При этом модель потребляет меньше ресурсов — её можно запустить даже на ноутбуке.
«Мы хотели создать инструмент, который разработчики смогут использовать локально, без интернета, и адаптировать под свои нужды», — заявил Батист Розьер, исследователь Mistral AI. Модель распространяется под лицензией Apache 2.0, разрешающей свободное использование, модификацию и коммерциализацию.
Эволюция Codestral
Devstral стала развитием линейки Codestral — специализированных моделей для работы с кодом. Первая версия Codestral (22 млрд параметров), выпущенная в мае 2024 года, поддерживала 80+ языков программирования. Её преемники, Codestral-Mamba (на архитектуре Mamba) и Codestral 25.01, завоевали популярность среди разработчиков IDE и корпоративных клиентов.
Лидер в бенчмарках
На тесте SWE-Bench Verified (500 реальных задач с GitHub) Devstral показала результат 46,8%, обойдя все открытые модели и даже некоторые проприетарные, включая GPT-4.1-mini (отрыв более 20%).
«Это самая эффективная open-source модель для автономной разработки. При этом её можно запустить на MacBook», — отметил Розьер. Для обучения использовались методы RLHF (обучение с подкреплением) и техники безопасности.
Интеграция с агентскими платформами
Devstral предназначена для интеграции с фреймворками вроде OpenDevin, SWE-Agent и OpenHands. Она умеет взаимодействовать с тестами, выполнять многошаговые задачи и адаптироваться под новые проекты.
Доступность
Модель поддерживает контекстное окно в 128 тыс. токенов и доступна через API Mistral (цена: 0,10замлнвходных/0,10замлнвходных/0,30 за млн выходных токенов) или локально — через Hugging Face, Ollama, LM Studio. Для работы достаточно видеокарты RTX 4090 или Mac с 32 ГБ ОЗУ.
«Я сам использую Devstral для обновления пакетов или правки скриптов — модель находит нужные места в коде и вносит изменения», — поделился Розьер.
В планах Mistral — выпуск более крупной версии Devstral. «Разрыв между компактными и большими моделями сокращается. Уже сейчас наши решения конкурируют с гигантами», — заключил эксперт.
0 комментариев