Реальные автономные системы оружия на основе ИИ гораздо более устрашающие.
OpenAI сообщает, что закрыла доступ к API инженеру, чье видео с моторизованной турелью, управляемой командами на основе ChatGPT, вызвало вирусную бурю беспокойства по поводу оружия на основе ИИ.
Инженер под ником sts_3d начал публиковать видео с моторизованным, автоматически вращающимся вращающимся креслом в августе. К ноябрю та же сборка, похоже, плавно превратилась в основу турели, которая могла быстро вращаться на произвольные углы и активировать сервопривод для стрельбы точно направленными снарядами (хотя в его видео показаны только холостые и имитированные лазеры).
Однако ранее на этой неделе sts_3d начал привлекать более широкое внимание новым видео, демонстрирующим интеграцию турели с API реального времени OpenAI. В видео пушка использует эту интеграцию ChatGPT для прицеливания и стрельбы на основе голосовых команд от sts_3d и даже отвечает веселым голосом после этого.
«Если вам нужна какая-либо другая помощь, пожалуйста, дайте мне знать», — говорит пушка на базе ChatGPT, выстрелив в какой-то момент. «Молодец, вы спасли нас», — отвечает sts_3d с каменным лицом.
«Я рад, что смог помочь!» — радостно говорит ChatGPT.
В ответ на запрос комментария от Futurism OpenAI заявила, что «заранее выявила это нарушение наших политик и уведомила разработчика о необходимости прекратить эту деятельность до получения вашего запроса. Политики использования OpenAI запрещают использование наших услуг для разработки или использования оружия или для автоматизации определенных систем, которые могут повлиять на личную безопасность».
Стой, нарушитель, внимание!
«Точка зрения робота-убийцы с голосовым управлением» привлекла много вирусного внимания к проекту sts_3d в последние дни. Но интеграция ChatGPT, показанная в его видео, не достигает уровня Терминатора ужасающей машины для убийства. Здесь ChatGPT в итоге выглядит скорее как причудливый, перегруженный голосовым управлением пульт дистанционного управления для действительно впечатляющей артиллерийской установки.
Демонстрируемое голосовое управление даже не кажется особенно эффективным в видео. Каждая из команд sts_3d требует несколько секунд, чтобы произнести их вслух, и еще несколько секунд требуется ChatGPT, чтобы обработать и выполнить их. Сравните это с другими видео sts_3d, где пушка автоматически отслеживает определенный цветной объект с ужасающей скоростью или быстро вращается между указанными мышью целями на видеопотоке, оба из которых кажутся гораздо более безжалостно методичными. Проекты любительских турелей также демонстрируют способность отслеживать и стрелять по движущимся целям задолго до недавнего бума LLM.
Тем не менее, любая потенциальная связь между «ИИ» и «оружием» быстро вызывает образы беспощадных автономных машин, которые могут «разумно» определять и нейтрализовывать угрозы без вмешательства человека. Военный аппарат США определенно проявил потенциальный интерес к такому виду автоматизированной системы вооружения на основе ИИ, даже если человек все еще всегда «в курсе» решений о стрельбе (на данный момент).
Политика использования OpenAI давно включает в себя запрет на использование языка, который может «нанести вред людям, уничтожить имущество или разработать оружие». Но в январе прошлого года The Intercept сообщил об обновлении политики скрытого использования, снимающем предыдущий запрет на «военное и ведение боевых действий». А буквально в прошлом месяце OpenAI объявила о партнерстве с военным подрядчиком Anduril «для разработки и ответственного развертывания передовых решений искусственного интеллекта (ИИ) для миссий национальной безопасности».
Оставив в стороне политику, более широкое распространение моделей ИИ с открытым исходным кодом и открытым весом в значительной степени гарантирует, что любители инженерии и энтузиасты оружия продолжат экспериментировать с различными уровнями управляемого ИИ оружия. Это верно независимо от того, используется ли ChatGPT в качестве голосового интерфейса для этих проектов.
0 комментариев