Как выяснило издание Wired, Министерство эффективности государственного управления США привлекло открытую модель искусственного интеллекта Llama 2 от Meta для обработки ответов сотрудников на спорное письмо «Развилка пути», рассылавшееся в январе.
Речь шла о требовании к федеральным служащим либо согласиться с возвращением в офисы, либо уволиться.
Скандал вокруг Llama 2
Согласно документам, группа DOGE при Управлении по персоналу (OPM) использовала Llama 2 для классификации ответов сотрудников и подсчета числа увольнений. Ранее эта же модель фигурировала в скандале с китайскими военными разработками: исследователи из КНР применяли её в проектах для армии, что вынудило Meta смягчить политику запрета на военное использование. Теперь компания разрешила применять свои ИИ-модели в сфере национальной безопасности США, сотрудничая с такими гигантами, как Microsoft, Oracle и Lockheed Martin.
Почему выбрали устаревшую модель?
Несмотря на выход более современных версий Llama 3 и 4, DOGE остановилась на Llama 2. Wired отмечает, что модель развернули локально, без передачи данных через интернет, что частично сняло вопросы о конфиденциальности. Однако 40 конгрессменов потребовали расследования, указав на риски утечек и предвзятости ИИ. В апрельском письме главе Административно-бюджетного управления упоминаются:
Использование ИИ Grok-2 от xAI Илона Маска для создания «ассистента»;
Чат-бот GSAi на базе моделей Meta и Anthropic;
Система AutoRIF для массовых увольнений.
Страхи и последствия
Законодателей тревожит отсутствие прозрачности в анализе рабочих отчетов сотрудников, которые после «Развилки пути» должны были кратко описывать еженедельные достижения. Хотя Wired не подтвердил применение Llama 2 для этой задачи, служащие опасаются, что DOGE повторно использует код из предыдущего эксперимента.
Будущее Grok в госструктурах
В январе Grok был доступен только как проприетарная модель, но после интеграции с Azure AI Foundry от Microsoft его применение может расшириться. Конгрессмены настаивают: ИИ с рисками «галлюцинаций» и утечек не готов для решений, влияющих на судьбы сотрудников и госпроектов.
Заключение
Пока DOGE продолжает внедрять ИИ под лозунгом «инноваций ради налогоплательщиков», эксперты призывают к строгому аудиту систем, предупреждая: ошибки алгоритмов могут привести к потере ценных кадров и угрозам национальной безопасности.
0 комментариев