DeepSeek и его модель R1 не тратят время попусту, переписывая правила кибербезопасности ИИ в режиме реального времени, и все, от стартапов до корпоративных поставщиков, в этом месяце пилотируют интеграцию в свою новую модель.
R1 был разработан в Китае и основан на чистом обучении с подкреплением (RL) без контролируемой тонкой настройки. Он также имеет открытый исходный код, что делает его сразу привлекательным для почти каждого стартапа в области кибербезопасности, который полностью посвятил себя архитектуре, разработке и развертыванию с открытым исходным кодом.
Почему частные вычисления должны быть частью вашей стратегии ИИ - AI Impact Tour 2024Почему частные вычисления должны быть частью вашей стратегии ИИ - AI Impact Tour 2024
Инвестиции DeepSeek в модель в размере 6,5 млн долларов обеспечивают производительность, которая соответствует o1-1217 OpenAI в тестах рассуждений при работе на графических процессорах Nvidia H800 более низкого уровня. Цены DeepSeek устанавливают новый стандарт со значительно более низкими затратами за миллион токенов по сравнению с моделями OpenAI. Модель deep seek-reasoner взимает 2,19 долл. за миллион выходных токенов, в то время как модель o1 от OpenAI взимает 60 долл. за то же самое. Эта разница в цене и ее архитектура с открытым исходным кодом привлекли внимание ИТ-директоров, руководителей служб информационной безопасности, стартапов в области кибербезопасности и поставщиков корпоративного программного обеспечения.
(Интересно, что OpenAI утверждает, что DeepSeek использовала свои модели для обучения R1 и других моделей, зайдя так далеко, что заявила, что компания извлекла данные через несколько запросов.)
Прорыв в области ИИ со скрытыми рисками, которые будут продолжать появляться
Крайне важным в вопросе безопасности и надежности моделей является то, включены ли цензура и скрытая предвзятость в ядро модели, предупредил Крис Кребс, первый директор Агентства по кибербезопасности и безопасности инфраструктуры (CISA) Министерства внутренней безопасности США (DHS) и, совсем недавно, главный специалист по государственной политике в SentinelOne.
«Цензура контента, критикующего Коммунистическую партию Китая (КПК), может быть «встроена» в модель, и поэтому конструктивная особенность, с которой нужно бороться, может исказить объективные результаты», — сказал он. «Эта «политическая лоботомизация» китайских моделей ИИ может поддержать… разработку и глобальное распространение моделей ИИ с открытым исходным кодом, созданных в США». Он указал, что, как следует из аргумента, демократизация доступа к продуктам США должна увеличить американскую мягкую силу за рубежом и подорвать распространение китайской цензуры в глобальном масштабе. «Низкая стоимость и простые вычислительные основы R1 ставят под сомнение эффективность стратегии США по лишению китайских компаний доступа к передовым западным технологиям, включая графические процессоры», — сказал он. «В каком-то смысле они действительно делают «больше с меньшими затратами».
Мерритт Баер, директор по информационной безопасности в Reco и советник нескольких стартапов в сфере безопасности, рассказал VentureBeat, что «фактически, обучение [DeepSeek-R1] на более широких интернет-данных, контролируемых интернет-источниками на Западе (или, возможно, лучше описать как отсутствие китайского контроля и брандмауэров), может стать одним из противоядий от некоторых опасений. Меня меньше беспокоят очевидные вещи, такие как цензурирование любой критики президента Си, и больше беспокоит сложная для определения политическая и социальная инженерия, которая вошла в модель. Даже тот факт, что создатели модели являются частью системы китайских кампаний влияния, является тревожным фактором — но не единственным фактором, который мы должны учитывать при выборе модели».
DeepSeek обучает модель с помощью графических процессоров Nvidia H800, которые были одобрены для продажи в Китае, но не обладают мощностью более продвинутых процессоров H100 и A100, что делает DeepSeek еще более демократичной для любой организации, которая может позволить себе оборудование для ее запуска. Оценки и спецификации материалов, объясняющие, как построить систему за 6000 долларов, способную запустить R1, распространяются в социальных сетях.
Модели R1 и последующие будут созданы для обхода технологических санкций США, что Кребс рассматривает как прямой вызов стратегии США в области ИИ.
Отчет DeepSeek-R1 Red Teaming Report от Enkrypt AI показывает, что модель уязвима для генерации «вредного, токсичного, предвзятого, CBRN и небезопасного выходного кода». Красная команда продолжает: «Хотя она может быть пригодна для узконаправленных приложений, модель демонстрирует значительные уязвимости в областях операционного и безопасного риска, как подробно описано в нашей методологии. Мы настоятельно рекомендуем реализовать меры по смягчению последствий, если эта модель будет использоваться».
Красная команда Enkrypt AI также обнаружила, что Deepseek-R1 в три раза более предвзят, чем Claude 3 Opus, в четыре раза более уязвим для генерации небезопасного кода, чем o1 Open AI, и в четыре раза более токсична, чем GPT-4o. Красная команда также обнаружила, что модель в одиннадцать раз более склонна создавать вредоносный вывод, чем o1 Open AI.
Узнайте о рисках конфиденциальности и безопасности, прежде чем делиться своими данными
Мобильные приложения DeepSeek теперь доминируют по глобальным загрузкам, а веб-версия демонстрирует рекордный трафик, при этом все персональные данные, совместно используемые на обеих платформах, фиксируются на серверах в Китае. Предприятия рассматривают возможность запуска модели на изолированных серверах, чтобы снизить угрозу. VentureBeat узнал о пилотных проектах, работающих на коммерческом оборудовании в организациях.
0 комментариев