бургерЛого хедера
Поиск
avatar

Устаревшая модель Meta Llama 2 использовалась для анализа данных госслужащих в США

Как выяснило издание Wired, Министерство эффективности государственного управления США привлекло открытую модель искусственного интеллекта Llama 2 от Meta для обработки ответов сотрудников на спорное письмо «Развилка пути», рассылавшееся в январе.

image

Речь шла о требовании к федеральным служащим либо согласиться с возвращением в офисы, либо уволиться.

Скандал вокруг Llama 2
Согласно документам, группа DOGE при Управлении по персоналу (OPM) использовала Llama 2 для классификации ответов сотрудников и подсчета числа увольнений. Ранее эта же модель фигурировала в скандале с китайскими военными разработками: исследователи из КНР применяли её в проектах для армии, что вынудило Meta смягчить политику запрета на военное использование. Теперь компания разрешила применять свои ИИ-модели в сфере национальной безопасности США, сотрудничая с такими гигантами, как Microsoft, Oracle и Lockheed Martin.

Почему выбрали устаревшую модель?
Несмотря на выход более современных версий Llama 3 и 4, DOGE остановилась на Llama 2. Wired отмечает, что модель развернули локально, без передачи данных через интернет, что частично сняло вопросы о конфиденциальности. Однако 40 конгрессменов потребовали расследования, указав на риски утечек и предвзятости ИИ. В апрельском письме главе Административно-бюджетного управления упоминаются:

  • Использование ИИ Grok-2 от xAI Илона Маска для создания «ассистента»;

  • Чат-бот GSAi на базе моделей Meta и Anthropic;

  • Система AutoRIF для массовых увольнений.

Страхи и последствия
Законодателей тревожит отсутствие прозрачности в анализе рабочих отчетов сотрудников, которые после «Развилки пути» должны были кратко описывать еженедельные достижения. Хотя Wired не подтвердил применение Llama 2 для этой задачи, служащие опасаются, что DOGE повторно использует код из предыдущего эксперимента.

Будущее Grok в госструктурах
В январе Grok был доступен только как проприетарная модель, но после интеграции с Azure AI Foundry от Microsoft его применение может расшириться. Конгрессмены настаивают: ИИ с рисками «галлюцинаций» и утечек не готов для решений, влияющих на судьбы сотрудников и госпроектов.

Заключение
Пока DOGE продолжает внедрять ИИ под лозунгом «инноваций ради налогоплательщиков», эксперты призывают к строгому аудиту систем, предупреждая: ошибки алгоритмов могут привести к потере ценных кадров и угрозам национальной безопасности.

0 комментариев

Вас могут заинтересовать