Новый стартап, ориентированный на корпоративный ИИ, сегодня выходит из тени, обещая предоставить то, что он называет «оптимизированными для задач» моделями, которые обеспечивают лучшую производительность при меньших затратах.
Fastino, базирующаяся в Сан-Франциско, также сообщает, что привлекла 7 миллионов долларов в раунде предварительного финансирования от Insight Partners и M12, венчурного фонда Microsoft, а также при участии генерального директора Github Томаса Домке. Fastino создает собственное семейство корпоративных моделей ИИ, а также инструменты для разработчиков. Модели являются новыми и не основаны ни на одной из существующих больших языковых моделей (LLM). Как и большинство поставщиков генеративного ИИ, модели Fastino имеют архитектуру трансформатора, хотя она использует некоторые инновационные методы, разработанные для повышения точности и корпоративной полезности. В отличие от большинства других поставщиков LLM, модели Fastino будут хорошо работать на универсальных процессорах и не потребуют для работы дорогостоящих графических процессоров.
Идея Fastino родилась из собственного опыта основателей в отрасли и реальных проблем развертывания ИИ в масштабе.
Эш Льюис, генеральный директор и соучредитель компании, создавал технологию агента разработчика, известную как DevGPT. Его соучредитель Джордж Херн-Мэлони ранее был основателем Waterway DevOps, которая была приобретена JFrog в 2023 году. Льюис объяснил, что агент разработчика его предыдущей компании использовал OpenAI в фоновом режиме, что привело к некоторым проблемам.
«Мы тратили около миллиона долларов в год на API», — сказал Льюис. «Мы не чувствовали, что у нас есть какой-либо реальный контроль над этим».
Подход Фастино представляет собой отход от традиционных больших языковых моделей. Вместо того чтобы создавать универсальные модели ИИ, компания разработала оптимизированные для задач модели, которые отлично справляются с определенными корпоративными функциями.
«Вся идея заключается в том, что если вы сузите область действия этих моделей, сделаете их менее общими, чтобы они были более оптимизированы для вашей задачи, они смогут реагировать только в пределах области действия», — объяснил Льюис.
Как подход модели, оптимизированной для задач, может повысить эффективность корпоративного ИИ
Концепция использования меньшей модели для оптимизации под конкретный вариант использования не является совершенно новой идеей. Малые языковые модели (SLM), такие как Phi-2 от Microsoft и поставщики, такие как Arcee AI, уже некоторое время отстаивают этот подход.
Херн-Мэлони сказал, что Fastino называет свои модели оптимизированными для задач, а не SLM по ряду причин. Во-первых, по его мнению, термин «маленький» часто имел коннотацию меньшей точности, что не относится к Fastino. Льюис сказал, что цель состоит в том, чтобы фактически создать новую категорию моделей, которая не является универсальной моделью, которая просто большая или маленькая по количеству параметров.
Модели Fastino оптимизированы для задач, а не являются универсальными моделями. Цель состоит в том, чтобы сделать модели менее широкими по охвату и более специализированными для конкретных корпоративных задач. Сосредоточившись на конкретных задачах, Fastino утверждает, что его модели способны достигать более высокой точности и надежности по сравнению с универсальными языковыми моделями.
0 комментариев