бургерЛого хедера
Поиск
avatar

Непредвиденные последствия: результаты выборов в США могут значительно ускорить разработку ИИ

Хотя выборы в США 2024 года были сосредоточены на традиционных вопросах, таких как экономика и иммиграция, их незаметное влияние на политику в области ИИ может оказаться еще более преобразующим.

image

Без единого вопроса для дебатов или важного предвыборного обещания об ИИ избиратели непреднамеренно склонили чашу весов в пользу акселерационистов — тех, кто выступает за быстрое развитие ИИ с минимальными нормативными препятствиями. Последствия этого ускорения глубоки, предвещая новую эру политики ИИ, которая ставит инновации выше осторожности и сигнализирует о решительном сдвиге в дебатах между потенциальными рисками и выгодами ИИ.

Пробизнес-позиция избранного президента Дональда Трампа заставляет многих предполагать, что его администрация будет благосклонна к тем, кто разрабатывает и продвигает ИИ и другие передовые технологии. Его партийная платформа мало что говорит об ИИ. Однако она подчеркивает политический подход, ориентированный на отмену правил ИИ, особенно направленный на то, что они описали как «радикальные левые идеи» в существующих указах уходящей администрации. Напротив, платформа поддерживала разработку ИИ, направленную на содействие свободе слова и «процветанию человечества», призывая к политике, которая способствует инновациям в области ИИ, одновременно выступая против мер, которые, как считается, препятствуют технологическому прогрессу.Ранние признаки, основанные на назначениях на руководящие государственные должности, подчеркивают это направление. Однако разворачивается более масштабная история: разрешение интенсивных дебатов о будущем ИИ.

Интенсивные дебаты

С тех пор, как в ноябре 2022 года появился ChatGPT, между теми в области ИИ, кто хочет ускорить разработку ИИ, и теми, кто хочет замедлить ее, идут яростные дебаты.

Известно, что в марте 2023 года последняя группа предложила шестимесячную паузу в разработке самых передовых систем ИИ, предупредив в открытом письме, что инструменты ИИ представляют «серьезные риски для общества и человечества». Это письмо, инициированное Институтом будущего жизни, было вызвано выпуском OpenAI большой языковой модели GPT-4 (LLM) через несколько месяцев после запуска ChatGPT.

Первоначально письмо подписали более 1000 лидеров и исследователей в области технологий, включая Илона Маска, соучредителя Apple Стива Возняка, кандидата в президенты 2020 года Эндрю Янга, подкастера Лекса Фридмана и пионеров ИИ Йошуа Бенджио и Стюарта Рассела. Число подписавших письмо в конечном итоге превысило 33 000. Все вместе они стали известны как «думеры», термин, отражающий их обеспокоенность потенциальными экзистенциальными рисками со стороны ИИ.

Не все согласились. Генеральный директор OpenAI Сэм Альтман не подписал. Не подписал и Билл Гейтс, и многие другие. Причины, по которым они этого не сделали, были разными, хотя многие высказывали опасения по поводу потенциального вреда со стороны ИИ. Это привело к многочисленным разговорам о возможности выхода ИИ из-под контроля, что приведет к катастрофе. Для многих в области ИИ стало модным говорить о своей оценке вероятности гибели, часто называемой уравнением: p(гибель). Тем не менее, работа над разработкой ИИ не останавливалась.

Для справки, мой p(doom) в июне 2023 года составил 5%. Это может показаться низким, но это не ноль. Я чувствовал, что основные лаборатории ИИ были искренни в своих усилиях по строгому тестированию новых моделей перед выпуском и в предоставлении значительных ограничений для их использования.

Многие наблюдатели, обеспокоенные опасностями ИИ, оценили экзистенциальные риски выше 5%, а некоторые оценили их гораздо выше. Исследователь безопасности ИИ Роман Ямпольский оценил вероятность того, что ИИ положит конец человечеству, более чем в 99%. Тем не менее, исследование, опубликованное в начале этого года, задолго до выборов и представляющее взгляды более 2700 исследователей ИИ, показало, что «медианное предсказание крайне плохих результатов, таких как вымирание человечества, составляло 5%. Вы бы сели в самолет, если бы была 5% вероятность того, что он может разбиться? Это дилемма, с которой сталкиваются исследователи и политики ИИ.

Нужно двигаться быстрее

Другие открыто пренебрегали опасениями по поводу ИИ, указывая вместо этого на то, что они считали огромным плюсом этой технологии. Среди них Эндрю Нг (основатель и руководитель проекта Google Brain) и Педро Домингос (профессор компьютерных наук и инженерии в Вашингтонском университете и автор книги «The Master Algorithm»). Вместо этого они утверждали, что ИИ является частью решения. Как утверждает Нг, действительно существуют экзистенциальные опасности, такие как изменение климата и будущие пандемии, и ИИ может быть частью того, как их решать и смягчать.

0 комментариев

Вас могут заинтересовать