бургерЛого хедера
Поиск
avatar

Поведенческий ИИ — наша главная надежда в борьбе с угрозами социальной инженерии

Пока руководители предприятий и эксперты тратят время и тратят чернила на споры о том, где находится ИИ в цикле ажиотажа, киберпреступники были заняты запуском разрушительных атак с использованием ИИ.

image

В частности, атаки с использованием социальной инженерии, генерируемые ИИ, включая фишинг и взлом деловой электронной почты, резко возросли, а инструменты с открытым исходным кодом, такие как ChatGPT (и его вредоносные аналоги GhostGPT, FraudGPT и WormGPT), предоставляют мошенникам без технических знаний совершенно новую площадку для создания атак. Они разрабатывают сложные, невероятно правдоподобные атаки по электронной почте в масштабах и нацелены на самый уязвимый вектор безопасности любого предприятия: людей на каждом уровне организации.

«Люди — самые уязвимые и самые ценные конечные точки в организации», — говорит Эван Райзер, генеральный директор Abnormal Security. «Традиционная безопасность сосредоточена на защите инфраструктуры, но пока у вас есть люди, взаимодействующие друг с другом в бизнесе — особенно когда это связано с конфиденциальной информацией — эти люди будут оставаться уязвимыми точками, которые злоумышленники могут попытаться использовать. И теперь это гораздо проще сделать с помощью инструментов ИИ».

Чтобы победить будущее атак, генерируемых ИИ, миру нужно несколько вещей, говорит Райзер: во-первых, глубокое понимание видов атак социальной инженерии, которые происходят как сейчас, так и в будущем — от персонализированных и идеально написанных фишинговых писем до сложных глубоких подделок, которые могут почти идеально имитировать человеческое взаимодействие. Во-вторых, новый поведенческий подход к остановке этих угроз, потому что текущее поколение инструментов обнаружения просто не создано для обнаружения убедительных и, казалось бы, реалистичных атак по электронной почте. И в-третьих, для этого требуются решения, которые работают со скоростью машины, чтобы обнаруживать и защищать, что становится все более важным в эпоху, когда дефицит кадров в области безопасности растет с каждым днем.

Вредоносный ИИ и рост социальной инженерии

Сегодня основные киберпреступления направлены на канал электронной почты — фишинг является основной причиной нарушений, а социальная инженерия — основной причиной финансовых потерь, говорит Райзер.

«Если вы хотите стать социальным инженером или фишером, ИИ — лучший инструмент, который когда-либо с вами сталкивался», — объясняет он. «ChatGPT может написать идеальное сообщение, потому что он понимает, как работают компании, может делать очень точные предположения, например, о языке, который используется в счетах к оплате для перенаправления платежей, и может легко персонализировать это сообщение для каждой цели».

Кроме того, типы атак, на которые раньше уходили часы, теперь занимают секунды. Богатство и сложность этих атак социальной инженерии больше, чем когда-либо, теперь они генерируются большими языковыми моделями (LLM), обученными на супермножестве доступной человеческой информации в Интернете. Эти инструменты предоставляют огромное количество критического контекста о том, как работают люди, как кто-то на определенной должности в определенной отрасли будет реагировать в широком спектре ситуаций и многое другое.

«В эти инструменты ИИ встроены защитные ограждения — например, он не скажет вам, как украсть деньги из банка», — говорит Райзер. «Но если вы скажете: «Я сотрудник, застрявший за границей, и мне срочно нужно изменить информацию о заработной плате», ChatGPT поможет вам написать убедительное сообщение, которое затем может быть использовано во зло».

Раньше преступники тратили много времени на ручное исследование и профилирование наиболее ценных и уязвимых целей; теперь ИИ предлагает эту возможность в больших масштабах. С распространением социальных сетей, происходящим одновременно, все, что нужно сегодня, — это просто подключить профиль LinkedIn к модели ИИ, и вы получите мгновенный снимок роли, интересов, контактов и многого другого человека — все это помогает преступникам как планировать, так и осуществлять атаки более эффективно.

Сохранение уязвимости человека на переднем крае стратегии безопасности

Основные инструменты ИИ, с которыми большинство из нас сегодня знакомы, — это LLM, которые генерируют текст, поэтому неудивительно, что мошеннические электронные письма и текстовые сообщения быстро набирают популярность. Но на горизонте появляются и другие формы вредоносного создания медиа, включая deep fake. Мы находимся на пороге мира, где deep fake-аватары на базе ИИ смогут присоединяться к встречам Zoom, выдавая себя за доверенного руководителя.

Кроме того, создание изображений совершенствуется с каждым днем, и мы близки к точке, когда часть этого контента, будь то текст, изображения или видео, люди не смогут различить, говорит Райзер. Видео уже почти здесь, оно становится все более и более реальным и интерактивным. Хотя все это отлично подходит «хорошим парням», мы должны помнить, что все достижения в области технологий сопряжены с определенным риском эксплуатации со стороны злоумышленников.

0 комментариев

Вас могут заинтересовать