бургерЛого хедера
Поиск
avatar

Google снимает запрет на оружие с использованием ИИ — что это значит для будущего искусственного интеллекта

Google сняла свой давний запрет на использование ИИ для оружия и систем наблюдения, что ознаменовало собой существенный сдвиг в этической позиции компании в отношении разработки ИИ, который, по словам бывших сотрудников и отраслевых экспертов, может изменить подход Кремниевой долины к безопасности ИИ.

image

Google сняла свой давний запрет на использование ИИ для оружия и систем наблюдения, что ознаменовало собой существенный сдвиг в этической позиции компании в отношении разработки ИИ, который, по словам бывших сотрудников и отраслевых экспертов, может изменить подход Кремниевой долины к безопасности ИИ.

Изменение, тихо реализованное на этой неделе, устраняет ключевые части Принципов ИИ Google, которые явно запрещали компании разрабатывать ИИ для оружия или наблюдения. Эти принципы, установленные в 2018 году, служили отраслевым эталоном ответственной разработки ИИ.

Навигация по правилам ИИ в телекоммуникациях - AI Impact Tour 2024 Навигация по правилам ИИ в телекоммуникациях - AI Impact Tour 2024

«Последний бастион исчез», - сказала Трейси Пиццо Фрей, которая пять лет внедряла оригинальные принципы ИИ Google в качестве старшего директора по управлению исходящими продуктами, вовлеченности и ответственному ИИ в Google Cloud, написала в сообщении BlueSky. «Это не имеет ограничений. Google действительно была одинока в этом уровне ясности относительно своих обязательств в отношении того, что она будет создавать».

Пересмотренные принципы устраняют четыре конкретных запрета: технологии, которые могут нанести общий вред; применение оружия; системы наблюдения; и технологии, которые нарушают международное право и права человека. Вместо этого Google теперь заявляет, что будет «смягчать непреднамеренные или вредные последствия» и соответствовать «общепринятым принципам международного права и прав человека».

(Автор: BlueSky / Трейси Пиццо Фрей)

Google ослабляет этику ИИ: что это означает для военных и технологий наблюдения

Этот сдвиг происходит в особенно деликатный момент, поскольку возможности ИИ быстро развиваются, а дебаты о соответствующих ограничениях для технологии усиливаются. Время вызвало вопросы о мотивах Google, хотя компания утверждает, что эти изменения разрабатывались долгое время.

«Мы находимся в состоянии, когда нет большого доверия к крупным технологиям, и каждый шаг, который даже кажется снятием ограничений, создает еще больше недоверия», — сказала Пиццо Фрей в интервью VentureBeat. Она подчеркнула, что четкие этические границы имели решающее значение для создания надежных систем ИИ во время ее пребывания в Google.

Первоначальные принципы появились в 2018 году на фоне протестов сотрудников по поводу проекта Maven, контракта Пентагона с использованием ИИ для анализа кадров с дронов. Хотя Google в конечном итоге отказалась продлевать этот контракт, новые изменения могут означать открытость для подобных военных партнерств.

Пересмотр сохраняет некоторые элементы предыдущей этической структуры Google, но смещается от запрета определенных приложений к акценту на управлении рисками. Этот подход более тесно связан с отраслевыми стандартами, такими как NIST AI Risk Management Framework, хотя критики утверждают, что он предусматривает менее конкретные ограничения для потенциально опасных приложений.

«Даже если строгость не та же самая, этические соображения не менее важны для создания хорошего ИИ», — отметил Пиццо Фрей, подчеркнув, как этические соображения повышают эффективность и доступность продуктов ИИ.

От проекта Maven к изменению политики: путь к пересмотру этики ИИ в Google

Отраслевые наблюдатели говорят, что это изменение политики может повлиять на то, как другие технологические компании подходят к этике ИИ. Первоначальные принципы Google создали прецедент для корпоративного саморегулирования в разработке ИИ, и многие предприятия обращаются к Google за руководством по ответственному внедрению ИИ.

Изменение отражает более широкую напряженность в технологической отрасли между быстрыми инновациями и этическими ограничениями. По мере усиления конкуренции в разработке ИИ компании сталкиваются с необходимостью сбалансировать ответственную разработку с требованиями рынка.

«Меня беспокоит, как быстро все выходит в мир, и устраняется ли все больше и больше барьеров», — сказала Пиццо Фрей, выразив обеспокоенность конкурентным давлением, требующим быстрого выпуска продуктов ИИ без достаточной оценки потенциальных последствий.

Этическая дилемма крупных технологических компаний: установит ли изменение политики Google в отношении ИИ новый отраслевой стандарт?

Пересмотр также поднимает вопросы о внутренних процессах принятия решений в Google и о том, как сотрудники могут ориентироваться в этических соображениях без явных запретов. За время работы в Google Пиццо Фрей создала процессы обзора, которые объединяли различные точки зрения для оценки потенциального воздействия приложений ИИ.

Хотя Google сохраняет свою приверженность ответственной разработке ИИ, отмена конкретных запретов знаменует собой значительный отход от предыдущей лидирующей роли в установлении четких этических границ для приложений ИИ. Поскольку ИИ продолжает развиваться, отрасль следит за тем, как этот сдвиг может повлиять на более широкий ландшафт разработки и регулирования ИИ.

0 комментариев

Вас могут заинтересовать