бургерЛого хедера
Поиск
avatar

Будущее регулирования ИИ пока неясно: каков ваш следующий шаг?

Регулирование ИИ всегда было горячей темой. Но с учетом того, что ограждения ИИ будут демонтированы новой администрацией США, регулирование также стало большим вопросительным знаком. Это более сложная и гораздо более нестабильная ситуация для и без того сложной среды соответствия.

image

VentureBeat AI Impact Tour в партнерстве с Capgemini остановился в Вашингтоне, округ Колумбия, чтобы поговорить о развивающихся рисках и удивительных новых возможностях, которые принесет предстоящая нормативная среда, а также о том, как ориентироваться в новой, неопределенной норме.

Генеральный директор VB Мэтт Маршалл поговорил с Валлом Эрардом, старшим вице-президентом Fidelity Labs, и Сюнином (Майком) Тангом, старшим директором по разработке ИИ/МО в Verizon, о существенных и растущих проблемах регулирования ИИ в финансовых услугах и телекоммуникациях, а также углубился в вопросы управления рисками, угрозы ответственности и многое другое со Стивом Джонсом, исполнительным вице-президентом по бизнесу, управляемому данными, и генеративному ИИ в Capgemini.Ответственность — это движущаяся цель

Проблема в том, говорит Джонс, что отсутствие регулирования сводится к отсутствию ответственности, когда дело касается того, что делают ваши большие языковые модели, и это включает в себя захват интеллектуальной собственности. Без регулирования и правовых последствий решение вопросов кражи интеллектуальной собственности либо сведется к судебным разбирательствам, либо, что более вероятно, особенно в случаях, когда LLM принадлежит компании с большими карманами, ответственность будет сползать вниз к конечным пользователям. А когда прибыльность перевешивает риск финансового удара, некоторые компании будут расширять границы.

«Я думаю, будет справедливо сказать, что судов недостаточно, и факт в том, что людям придется отравлять свой публичный контент, чтобы не потерять свою ИС», — говорит Джонс. «И грустно, что до этого придется дойти, но это обязательно произойдет, если риск заключается в том, что вы выкладываете это в интернет, внезапно кто-то просто ворует весь ваш каталог и начинает продавать его напрямую».

Приведение в исполнение части ответственности

В реальном мире нерегулируемые приложения для общения с помощью ИИ привели к настоящим трагедиям, таким как самоубийство 14-летнего мальчика, который изолировал себя от друзей и семьи в пользу своего компаньона-чатбота. Как может в таких случаях возникнуть ответственность за качество продукции, чтобы предотвратить то же самое с другим пользователем, если правила будут еще больше устарели?

«Это огромное оружие массового поражения, с точки зрения ИИ, это феноменально мощные вещи. Должна быть ответственность за контроль над ними», — говорит Джонс. «Что потребуется, чтобы возложить эту ответственность на компании, которые создают продукты, я твердо верю, что это произойдет только в том случае, если для этого будет стимул».

Например, семья ребенка подает в суд на компанию-разработчика чатбота, которая теперь ввела новые политики безопасности и автоматической модерации на своей платформе.

Управление рисками в мире с легким регулированием

Сегодняшняя стратегия ИИ должна будет вращаться вокруг управления рисками, понимания риска, которому вы подвергаете свой бизнес, и сохранения контроля над ним. Джонс добавляет, что не так много возмущения вокруг вопроса потенциального раскрытия данных, потому что с точки зрения бизнеса настоящее возмущение заключается в том, как ошибка ИИ может повлиять на общественное восприятие, и угроза судебного разбирательства, будь то человеческие жизни или прибыль.

«Возмущение в том, что если я покажу галлюцинацию клиенту, это сделает мой бренд ужасным», — говорит Джонс. «Но подадут ли на меня в суд? Выкладываю ли я недействительный контент? Выкладываю ли я контент, который выглядит так, будто я обманул своих конкурентов? Поэтому я меньше беспокоюсь о возмущении. Я больше беспокоюсь о том, чтобы дать юристам работу».

Избавление L от LLM

Он добавляет, что еще одной важной стратегией будет сохранение как можно меньших размеров моделей. LLM — мощные и могут выполнять некоторые потрясающие задачи. Но нужна ли предприятию степень магистра права, чтобы играть в шахматы, говорить на клингонском или писать эпические стихи? Чем больше модель, тем больше потенциал для проблем с конфиденциальностью и тем больше потенциальных векторов угроз, отметил ранее Тан. У Verizon огромный объем внутренней информации в данных о трафике, и модель, которая инкапсулирует всю эту информацию, была бы огромной и представляла бы риск для конфиденциальности, поэтому Verizon стремится использовать наименьшую модель, которая обеспечивает наилучшие результаты.

Меньшие модели, созданные для решения конкретных, узко определенных задач, также являются ключевым способом уменьшения или устранения галлюцинаций, сказал Херар. Так легче контролировать соответствие, когда набор данных, используемый для обучения модели, имеет размер, при котором возможен полный обзор соответствия.

«Удивительно, как часто в корпоративных сценариях использования, понимая мою бизнес-проблему, понимая мои данные, эта небольшая модель обеспечивает феноменальный набор результатов», — говорит Джонс. «А затем объедините ее с тонкой настройкой, чтобы сделать именно то, что я хочу, и еще больше снизить свой риск».

0 комментариев

Вас могут заинтересовать