бургерЛого хедера
Поиск
avatar

Кому нужен расширенный голосовой режим GPT-4o? Hume's EVI 2 с эмоционально настраиваемым голосовым искусственным интеллектом и API

Когда мы в последний раз рассказывали о Hume, ИИ-стартапе, одним из основателей и руководителем которого является бывший ученый-вычислитель Google DeepMinder Алан Коуэн, была весна 2024 года, и компания только что привлекла 50 миллионов долларов в рамках раунда финансирования серии B для своего уникального подхода к разработке голосового ИИ-ассистента.

image

Компания Hume, названная в честь шотландского философа XVIII века Дэвида Юма, использует кросс-культурные записи голосов различных дикторов, сопоставленные с результатами самооценки эмоциональных состояний, для создания собственной модели искусственного интеллекта, которая обеспечивает реалистичное голосовое выражение и понимание речи на разных языках и диалектах.Уже тогда Hume была одним из первых поставщиков моделей искусственного интеллекта, который сразу же предложил интерфейс прикладного программирования (API), что позволило сторонним разработчикам и компаниям, не входящим в компанию, подключать приложения или создавать новые на основе ее модели, или просто включать ее в такие функции, как ответы на звонки в службу поддержки клиентов и получение соответствующих контекстных ответов из базы данных организации.

За прошедшие полгода Хьюм занялся созданием обновленной версии этой голосовой модели ИИ и API. Новый голосовой интерфейс Empathic Voice Interface 2 (EVI 2) был анонсирован на прошлой неделе и представляет собой ряд расширенных возможностей, направленных на повышение естественности, эмоциональной отзывчивости и настраиваемости при значительном снижении стоимости для разработчиков и предприятий. Он также на 40 % меньше задержек и на 30 % дешевле своего предшественника через API.«Мы хотим, чтобы разработчики встраивали это в любое приложение, создавали нужный им голос бренда и настраивали его для своих пользователей, чтобы голос казался надежным и персонализированным», - сказал Коуэн в видеозвонке с VentureBeat на прошлой неделе.

На самом деле, Коуэн сказал VentureBeat, что он видит и надеется увидеть еще больше компаний, которые не будут выкидывать людей из своих приложений и отправлять их к отдельному голосовому помощнику ИИ, оснащенному EVI, для решения вопросов технической и клиентской поддержки.

Вместо этого он отметил, что благодаря разработке EVI 2 стало возможным и во многих случаях более удобным для конечного пользователя подключаться к голосовому помощнику на базе EVI 2 прямо в приложении, и что теперь голосовой помощник на базе EVI 2 может получать информацию или выполнять действия от имени пользователя, не подключая его к какому-либо внешнему телефонному номеру - если он подключен к основному клиентскому приложению правильным образом с помощью инструментов разработчика Hume.

«Разработчики начинают понимать, что им не обязательно подключать голос к телефонной линии; они могут взять его и разместить в любом месте своего приложения, - сказал Коуэн в интервью VentureBeat.

Например, если бы я хотел изменить свой адрес в онлайн-аккаунте, я мог бы просто использовать EVI 2, если бы он был интегрирован, и попросить его изменить мой адрес за меня, вместо того чтобы направлять меня через все шаги и экраны».

0 комментариев

Вас могут заинтересовать