В 2024 году количество инцидентов, связанных с Deepfake, возрастет на 60 % или более в этом году, что приведет к увеличению числа случаев в мире до 150 000 или более.
Благодаря этому атаки с использованием ИИ-глубоких подделок становятся самым быстрорастущим видом враждебного ИИ на сегодняшний день. По прогнозам Deloitte, к 2027 году ущерб от атак deepfake превысит 40 миллиардов долларов, причем основными мишенями станут банковские и финансовые услуги.
Генерируемые ИИ голосовые и видеоподделки размывают границы правдоподобия и подрывают доверие к учреждениям и правительствам. Технология глубоких подделок настолько широко распространена в кибервоенных организациях национальных государств, что достигла зрелости тактики атак в кибервойнах стран, которые постоянно взаимодействуют друг с другом. «На сегодняшних выборах достижения в области ИИ, такие как генеративный ИИ или deepfakes, превратились из простой дезинформации в сложные инструменты обмана. Благодаря ИИ становится все сложнее отличить подлинную информацию от сфабрикованной», - сказал VentureBeat Шринивас Муккамала, директор по продуктам компании Ivanti.
Шестьдесят два процента генеральных директоров и руководителей высшего звена считают, что в ближайшие три года глубокие подделки создадут для их организаций как минимум определенные операционные расходы и сложности, а пять процентов считают их угрозой существования. По прогнозам Gartner, к 2026 году атаки с использованием генерируемых искусственным интеллектом глубоких подделок биометрических данных лица приведут к тому, что 30 % предприятий перестанут считать такие решения для проверки подлинности и аутентификации надежными сами по себе.
«Недавнее исследование, проведенное компанией Ivanti, показало, что более половины офисных работников (54 %) не знают о том, что продвинутый ИИ может выдавать себя за чей-либо голос. Эта статистика вызывает беспокойство, учитывая, что эти люди будут участвовать в предстоящих выборах», - говорит Муккамала.
В оценке угроз разведывательного сообщества США на 2024 год говорится, что «Россия использует ИИ для создания глубоких подделок и развивает способность обманывать экспертов. Люди в зонах боевых действий и в нестабильной политической обстановке могут стать одними из самых ценных целей для такого вредоносного влияния с помощью фальшивок». Глубокие подделки стали настолько распространены, что Министерство национальной безопасности выпустило руководство «Возрастающие угрозы глубоких поддельных личностей».Как GPT-4o обнаруживает фальшивки
Новейшая модель OpenAI, GPT-4o, предназначена для выявления и пресечения этих растущих угроз. Это «авторегрессионная омни-модель, которая принимает на вход любую комбинацию текста, аудио, изображения и видео», как описано в ее системной карте, опубликованной 8 августа. OpenAI пишет: «Мы позволяем модели использовать только определенные, заранее выбранные голоса и используем выходной классификатор, чтобы обнаружить, если модель отклоняется от этого».
Выявление потенциального мультимодального контента deepfake - одно из преимуществ дизайнерских решений OpenAI, которые в совокупности определяют GPT-4o. Примечательно, что в процессе работы над моделью было проведено большое количество тренировок, что является одним из самых масштабных среди всех выпущенных в отрасли моделей ИИ последнего поколения.
Все модели должны постоянно тренироваться и учиться на данных об атаках, чтобы сохранить свое преимущество, и это особенно актуально, когда речь идет о глубоких подделках, которые становятся неотличимыми от легитимного контента.
В следующей таблице объясняется, как функции GPT-4o помогают выявлять и пресекать аудио- и видеоподделки.
0 комментариев