OpenAI сегодня утром запустила новое семейство моделей ИИ, которые значительно улучшают возможности кодирования, одновременно сокращая расходы, напрямую реагируя на растущую конкуренцию на рынке корпоративного ИИ.
Базирующаяся в Сан-Франциско компания ИИ представила три модели — GPT-4.1, GPT-4.1 mini и GPT-4.1 nano — все они доступны немедленно через ее API. Новая линейка лучше справляется с задачами разработки программного обеспечения, точнее следует инструкциям и может обрабатывать до миллиона токенов контекста, что эквивалентно примерно 750 000 слов. «GPT-4.1 обеспечивает исключительную производительность при меньших затратах», — сказал Кевин Вейл, директор по продуктам OpenAI, во время объявления в понедельник. «Эти модели лучше, чем GPT-4o, практически по всем параметрам».
Возможно, наиболее важным для корпоративных клиентов является цена: GPT-4.1 будет стоить на 26% меньше, чем его предшественник, в то время как облегченная версия nano станет самым доступным предложением OpenAI всего по 12 центов за миллион токенов.
Как улучшения GPT-4.1 нацелены на самые проблемные места корпоративных разработчиков
В откровенном интервью VentureBeat Мишель Покрасс, руководитель исследований после обучения в OpenAI, подчеркнула, что практические бизнес-приложения управляли процессом разработки.
«GPT-4.1 обучался с одной целью: быть полезным для разработчиков», — рассказал Покрасс VentureBeat. «Мы обнаружили, что GPT-4.1 намного лучше следует тем видам инструкций, которые предприятия используют на практике, что значительно упрощает развертывание готовых к производству приложений».
Этот акцент на реальной полезности отражается в результатах тестов. На SWE-bench Verified, который измеряет возможности разработки программного обеспечения, GPT-4.1 набрал 54,6% — существенное улучшение на 21,4 процентных пункта по сравнению с GPT-4o.
Для компаний, разрабатывающих агентов ИИ, которые работают независимо над сложными задачами, улучшения в следовании инструкциям особенно ценны. В тесте Scale MultiChallenge GPT-4.1 набрал 38,3%, превзойдя GPT-4o на 10,5 процентных пункта.
Почему трехуровневая модельная стратегия OpenAI бросает вызов таким конкурентам, как Google и Anthropic
Внедрение трех отдельных моделей по разным ценам отвечает диверсификации рынка ИИ. Флагманская модель GPT-4.1 нацелена на сложные корпоративные приложения, в то время как версии mini и nano предназначены для случаев использования, где скорость и экономическая эффективность являются приоритетами.
«Не все задачи требуют максимального интеллекта или лучших возможностей», — сказал Покрасс VentureBeat. «Nano станет рабочей лошадкой для таких случаев использования, как автозаполнение, классификация, извлечение данных или что-либо еще, где скорость является главным приоритетом».
Одновременно OpenAI объявила о планах прекратить поддержку GPT-4.5 Preview — своей самой большой и дорогой модели, выпущенной всего два месяца назад, — из своего API к 14 июля. Компания позиционировала GPT-4.1 как более экономичную замену, которая обеспечивает «улучшенную или аналогичную производительность по многим ключевым возможностям при гораздо меньших затратах и задержках».
Этот шаг позволяет OpenAI вернуть вычислительные ресурсы, предоставляя разработчикам более эффективную альтернативу своему самому дорогостоящему предложению, которое стоило 75 долларов за миллион входных токенов и 150 долларов за миллион выходных токенов.
Реальные результаты: как Thomson Reuters, Carlyle и Windsurf используют GPT-4.1
Несколько корпоративных клиентов, которые тестировали модели до запуска, сообщили о существенных улучшениях в своих конкретных областях.
Thomson Reuters увидела 17%-ное улучшение точности проверки нескольких документов при использовании GPT-4.1 с юридическим помощником на основе искусственного интеллекта CoCounsel. Это усовершенствование особенно ценно для сложных юридических рабочих процессов, включающих длинные документы с нюансированными отношениями между пунктами.
Финансовая фирма Carlyle сообщила о 50% улучшении производительности при извлечении детализированных финансовых данных из плотных документов — критически важной возможности для инвестиционного анализа и принятия решений.
Варун Мохан, генеральный директор поставщика инструментов кодирования Windsurf (ранее Codeium), поделился подробными показателями производительности во время объявления.
«Мы обнаружили, что GPT-4.1 сокращает количество раз, которое ему необходимо читать ненужные файлы, на 40% по сравнению с другими ведущими моделями, а также изменяет ненужные файлы на 70% реже», — сказал Мохан. «Модель также на удивление менее многословна... GPT-4.1 на 50% менее многословна, чем другие ведущие модели».
Контекст в миллион токенов: что компании могут сделать с 8-кратным увеличением вычислительной мощности
Все три модели имеют контекстное окно в один миллион токенов — в восемь раз больше, чем лимит в 128 000 токенов GPT-4o. Эта расширенная емкость позволяет моделям обрабатывать несколько длинных документов или целые кодовые базы одновременно.
0 комментариев