Искусственный интеллект развивается стремительными темпами, но нормативно-правовая база находится в состоянии хаоса.
С учетом того, что будущая администрация Трампа обещает невмешательство в регулирование, отсутствие регулирования ИИ на федеральном уровне означает, что США сталкиваются с фрагментированным лоскутным одеялом правил, ведомых штатами, или в некоторых случаях с отсутствием правил вообще.
Недавние сообщения предполагают, что избранный президент Трамп рассматривает возможность назначения «царя ИИ» в Белом доме для координации федеральной политики и правительственного использования искусственного интеллекта. Хотя этот шаг может указывать на развивающийся подход к надзору за ИИ, остается неясным, какой объем регулирования будет фактически реализован. Хотя, по-видимому, и не берет на себя роль царя ИИ, ожидается, что глава Tesla Илон Маск сыграет значительную роль в формировании будущих вариантов использования и дебатов вокруг ИИ. Но Маска трудно понять. Хотя он поддерживает минимальное регулирование, он также выразил опасения по поводу неограниченного ИИ, так что, если уж на то пошло, его роль вносит еще большую неопределенность. «Эффективные» назначенцы Трампа Маск и Вивек Рамасвами пообещали применить подход бензопилы к федеральной бюрократии, который может сократить ее «на 25%» или больше. Так что, похоже, нет никаких оснований ожидать принудительного регулирования в ближайшее время. Для таких руководителей, как Wells Fargo Мехта Чинтан, который на нашем мероприятии AI Impact в январе призывал к регулированию для создания большей определенности, это отсутствие регулирования не облегчает ситуацию.
Фактически, регулирование вокруг ИИ уже сильно отстало, и его дальнейшее откладывание означало бы еще больше головной боли. Банк, который и так жестко регулируется, сталкивается с постоянной игрой в догадки о том, что может регулироваться в будущем. Эта неопределенность заставляет его тратить значительные инженерные ресурсы на «строительство лесов вокруг вещей», сказал тогда Чинтан, потому что он не знает, чего ожидать, когда приложения выйдут на рынок.
Эта осторожность вполне заслужена. Стив Джонс, исполнительный вице-президент по ИИ поколения в Capgemini, говорит, что отсутствие федерального регулирования ИИ означает, что компании, работающие с передовыми моделями, такие как OpenAI, Microsoft, Google и Anthropic, не несут ответственности за любой вредоносный или сомнительный контент, сгенерированный их моделями. В результате корпоративные пользователи вынуждены нести риски: «Вы сами по себе», — подчеркнул Джонс. Компании не могут легко привлечь поставщиков моделей к ответственности, если что-то пойдет не так, что увеличивает их подверженность потенциальным обязательствам.
Более того, Джонс указал, что если эти поставщики моделей используют данные, полученные без надлежащей компенсации, или допускают утечку конфиденциальной информации, корпоративные пользователи могут стать уязвимыми для судебных исков. Например, он упомянул крупную компанию финансовых услуг, которая прибегла к «отравлению» своих данных — внедрению вымышленных данных в свои системы для выявления любого несанкционированного использования в случае их утечки.
Эта неопределенная среда создает значительные риски и скрытые возможности для лиц, принимающих решения.
Присоединяйтесь к нам на эксклюзивном мероприятии по регулированию ИИ в Вашингтоне, округ Колумбия, 5 декабря, с докладчиками из Capgemini, Verizon, Fidelity и других, пока мы прорвемся сквозь шум, предоставив четкие стратегии, которые помогут руководителям предприятий опережать проблемы соответствия, ориентироваться в меняющемся лоскутном регулировании и использовать гибкость текущей ситуации для инноваций без страха. Послушайте ведущих экспертов в области ИИ и промышленности, которые поделятся практическими идеями, чтобы провести ваше предприятие через этот регуляторный Дикий Запад. (Ссылки на RSVP и полную повестку дня здесь. Количество мест ограничено, поэтому действуйте быстро.
Путешествуя по Дикому Западу регулирования ИИ: предстоящая задача
В быстро меняющемся ландшафте ИИ руководители предприятий сталкиваются с двойной проблемой: использование преобразующего потенциала ИИ и одновременное сталкивание с нормативными препятствиями, которые часто просто неясны. все больше компаний должны проявлять инициативу, в противном случае они могут оказаться в сложной ситуации, как, например, SafeRent, DoNotPay и Clearview.
Стив Джонс из Capgemini отмечает, что полагаться на поставщиков моделей без четких соглашений о возмещении ущерба рискованно — проблемы могут возникнуть не только из-за выходных данных моделей, но и из-за практики обработки данных и потенциальных обязательств.
Отсутствие целостной федеральной структуры в сочетании с различными государственными нормами создает сложную картину соответствия. Например, действия FTC против таких компаний, как DoNotPay, свидетельствуют о более агрессивной позиции в отношении искажений, связанных с ИИ, в то время как инициативы на уровне штатов, такие как Закон о предвзятом аудите штата Нью-Йорк, налагают дополнительные требования соответствия. Потенциальное назначение ИИ-царя может централизовать политику ИИ, но влияние на практическое регулирование остается неопределенным, оставляя компаниям больше вопросов, чем ответов.
Присоединяйтесь к обсуждению: будущее регулирования ИИ
Руководители предприятий должны принять проактивные стратегии для навигации в этой среде:
Внедрить надежные программы соответствия: Разработать комплексные структуры управления ИИ, которые устраняют потенциальные предубеждения, обеспечивают прозрачность и соответствуют существующим и новым нормам.
Будьте в курсе событий в сфере регулирования: Регулярно отслеживайте изменения в федеральном и государственном регулировании, чтобы предвидеть и адаптироваться к новым обязательствам по соблюдению требований,
0 комментариев