бургерЛого хедера
Поиск
avatar

Обеспечение безопасности на рубеже ИИ: защита корпоративных систем от угроз, связанных с ИИ

К 2025 году атаки с использованием искусственного интеллекта, нацеленные на идентификационные данные, — невидимые и зачастую требующие самых больших затрат на восстановление — будут представлять наибольшую угрозу для кибербезопасности предприятий.

image

Большие языковые модели (LLM) — это новый мощный инструмент для мошенников, киберпреступных синдикатов и групп атак на уровне государств.

Недавний опрос показал, что 84% руководителей ИТ и безопасности говорят, что когда ИИ-управляемые методы атаки становятся стратегией атаки для запуска фишинговых и смишинговых атак, их становится все сложнее идентифицировать и остановить. В результате 51% руководителей безопасности отдают приоритет атакам с использованием ИИ как самой серьезной угрозе, с которой сталкиваются их организации. Хотя подавляющее большинство руководителей безопасности, 77%, уверены, что знают лучшие практики для обеспечения безопасности ИИ, только 35% считают, что их организации сегодня готовы противостоять атакам с использованием вооруженного ИИ, которые, как ожидается, значительно возрастут в 2025 году.В 2025 году директора по информационной безопасности и группы безопасности столкнутся с более сложной задачей, чем когда-либо, чтобы выявить и остановить ускоряющийся темп атак на основе ИИ-соперников, которые уже опережают самые передовые формы безопасности на основе ИИ. 2025 год станет годом, когда ИИ заслужит свою роль в качестве технологического стейка, необходимого для обеспечения мониторинга угроз и конечных точек в реальном времени, снижения утомляемости аналитиков центра операций по безопасности (SOC), автоматизации управления исправлениями и выявления дипфейков с большей точностью, скоростью и масштабом, чем это было возможно раньше.

Состязательный ИИ: дипфейки и всплеск синтетического мошенничества

Дипфейки уже лидируют среди всех других форм атак на основе ИИ-соперников. Они обойдутся мировому бизнесу в 12,3 млрд долларов в 2023 году, и, как ожидается, к 2027 году эта сумма вырастет до 40 млрд долларов, увеличившись на 32% в год. Злоумышленники, от мошенников до хорошо финансируемых государственных злоумышленников, неустанно совершенствуют свои навыки, используя новейшие приложения ИИ, видеомонтаж и аудиотехнику. Прогнозируется, что количество инцидентов с дипфейками увеличится на 50–60% в 2024 году и достигнет 140 000–150 000 случаев по всему миру.

Deloitte утверждает, что злоумышленники с дипфейками предпочитают в первую очередь преследовать банковские и финансовые учреждения. Известно, что обе отрасли являются уязвимыми целями для атак с использованием синтетического мошенничества с использованием личных данных, которые трудно идентифицировать и остановить. В прошлом году дипфейки были задействованы почти в 20% случаев мошенничества с использованием синтетических личных данных. Мошенничество с использованием синтетических личных данных является одним из самых сложных для выявления и остановки. Только в этом году оно может украсть из финансовых и коммерческих систем почти 5 миллиардов долларов. Из множества потенциальных подходов к предотвращению мошенничества с использованием синтетических личных данных пять оказываются наиболее эффективными.

С ростом угрозы мошенничества с использованием синтетических идентификаторов компании все больше внимания уделяют процессу регистрации как ключевому моменту в проверке личности клиентов и предотвращении мошенничества. Как объяснил генеральный директор Telesign Кристоф Ван де Вейер в недавнем интервью VentureBeat, «Компании должны защищать личность, учетные данные и персональную информацию (PII) своих клиентов, особенно во время регистрации». Индекс доверия Telesign 2024 года подчеркивает, как генеративный ИИ усилил фишинговые атаки, при этом данные показывают рост вредоносных фишинговых сообщений на 1265% и рост фишинга учетных данных на 967% в течение 12 месяцев с момента запуска ChatGPT.

Вооруженный ИИ — это новая норма, а организации к ней не готовы

«Мы уже давно говорим, что такие вещи, как облако, идентификация, инструменты удаленного управления и легитимные учетные данные, — это то, куда движется противник, потому что слишком сложно работать без ограничений на конечной точке», — сказал в недавнем интервью VentureBeat Элия Зайцев, технический директор CrowdStrike.

«Противник становится быстрее, и использование технологии ИИ является частью этого. Использование автоматизации также является частью этого, но выход на эти новые домены безопасности — еще один важный фактор, и это сделало не только современных злоумышленников, но и современные кампании атак намного быстрее», — сказал Зайцев.

Генеративный ИИ стал ракетным топливом для состязательного ИИ. В течение нескольких недель после того, как OpenAI запустила ChatGPT в ноябре 2022 года, мошенники и киберпреступные группировки запустили сервисы подписных атак на основе ИИ. FraudGPT — один из самых известных, в какой-то момент заявлявший о наличии 3000 подписчиков.

В то время как новые приложения, инструменты, платформы и методы противодействия ИИ процветают, большинство организаций не готовы.

Сегодня каждая третья организация признает, что у нее нет документированной стратегии для борьбы с рисками ИИ и противодействия ИИ. Директора по информационной безопасности и руководители ИТ-отделов признают, что они не готовы к атакам на идентификационные данные с использованием ИИ. В недавнем отчете Ivanti о состоянии кибербезопасности за 2024 год говорится, что 74% предприятий уже сталкиваются с угрозами, основанными на ИИ. Девять из десяти руководителей, 89%, считают, что угрозы, основанные на ИИ, только начинаются. Примечательно в исследовании то, как они обнаружили большой разрыв между неготовностью большинства организаций защищаться от атак с использованием ИИ и неизбежной угрозой стать целью таких атак.

Шесть из десяти руководителей служб безопасности говорят, что их организации сегодня не готовы противостоять угрозам и атакам, основанным на ИИ. Четыре наиболее распространенные угрозы, с которыми столкнулись руководители служб безопасности в этом году, включают фишинг, уязвимости программного обеспечения, атаки программ-вымогателей и уязвимости, связанные с API. Поскольку ChatGPT и другие инструменты поколения ИИ делают многие из этих угроз малозатратными, атаки с использованием состязательного ИИ демонстрируют все признаки стремительного роста в 2025 году.

0 комментариев

Вас могут заинтересовать