Дипфейки: новая реальность угроз и борьба с ними

BOOX

Стаж на ФС с 2012 года
Команда форума
Служба безопасности
Private Club
Регистрация
23/1/18
Сообщения
30.641
Репутация
11.900
Реакции
62.863
RUB
50
Технология дипфейков больше не ограничивается развлечениями или созданием цифрового контента.

Она стала мощным инструментом в руках мошенников, которые используют поддельные видео и голоса для обмана людей и кражи средств. Разбираемся в статье, как работают современные алгоритмы, почему их так сложно обнаружить, и какие технологии помогают противостоять угрозе.

mnly7acj7t9f2cbrjnq2w222ov3rm9id.jpg


Что такое дипфейки и как они развивались

Дипфейки — это технология, основанная на алгоритмах искусственного интеллекта, которая позволяет создавать поддельные изображения, видео- и аудиозаписи. Суть технологии заключается в использовании глубоких нейронных сетей для замены лица, голоса или даже мимики одного человека на данные другого, создавая иллюзию достоверности.

Изначально дипфейки появились в научной среде как инструмент для разработки и тестирования алгоритмов глубокого обучения. Первые эксперименты с подобными технологиями начались в начале 2010-х годов, когда ученые начали использовать генеративно-состязательные сети (GAN) для создания реалистичных изображений.

Принципы работы дипфейков основаны на использовании генеративно-состязательных сетей. Этот метод включает две нейронные сети: одна (генератор) создает поддельный контент, а другая (дискриминатор) пытается определить, является ли контент реальным или поддельным. Для генерации видео используется процесс, при котором исходное лицо заменяется на другое, сохраняя выражения эмоций и движения губ.

Для подделки голоса применяются алгоритмы, анализирующие звуковые паттерны, тональность и акценты, чтобы воспроизвести голос другого человека. Современные модели ИИ позволяют синтезировать голос в реальном времени, что делает дипфейки особенно опасными в контексте мошенничества.

Сегодня дипфейки находят применение не только в развлекательной индустрии, но и в криминальных схемах, что подчеркивает важность изучения этой технологии и разработки методов защиты.

Мошенничество и дипфейки: новые угрозы

С развитием технологий дипфейки становятся все более мощным инструментом в арсенале мошенников. Возможность подделывать видео и аудио в реальном времени открывает новые горизонты для преступных схем, делая их более убедительными и сложными для распознавания.

Один из наиболее известных примеров использования дипфейков в преступлениях связан с подделкой голосов. Мошенники имитируют голоса руководителей компаний и через телефонные звонки требуют перевода крупных сумм.

Для генерации голоса с помощью нейросети используется технология TTS — text to speech. С ее помощью озвучивается заготовленный текст. Примеры таких решений — DeepVoice, Tacotron и Zero-Shot Voice Cloning. Эти технологии могут создавать дипфейк голоса конкретного человека через transfer learning. Каждое решение требует разный объем исходного аудиоматериала для обучения. DeepVoice, Tacotron — в среднем больше часа чистой речи. Zero-Shot Voice Cloning может показать результат по копированию голоса на более коротких отрывках, начиная с 30 секунд.

Самый простой вариант для злоумышленников — запись голосовых сообщений с помощью дипфейков. Стремление общаться голосовыми сообщениями вместо звонка — один из признаков мошенничества. Взаимодействие с потенциальной жертвой в реальном времени сложнее. Если для общения используется нейросеть, ей требуется расшифровать ответы собеседника в текст и подготовить ответ. Если задействован человек, ему потребуется написать текст для последующей озвучки. Все это занимает время, и скорость ответов может позволить заподозрить фальсификацию. Также машинам сложно выдерживать естественные паузы в речи и делать неравномерные переходы в диалоге, адекватно проявлять эмоции, поэтому следует обращать внимание на интонацию.

Другой тревожный сигнал — использование в общении шаблонных фраз и оборотов. Чтобы выявить дипфейк, можно задать вопрос на отвлеченную тему, которая известна только вам и собеседнику, или нестандартный вопрос. То есть, использовать социальную инженерию против социальной инженерии злоумышленников.

Помимо TTS, стоит упомянуть технологию генерации голоса в реальном времени. Примеры использования технологии — автоматические переводы видео на YouTube с помощью машинного обучения. Голосовая нейросеть ошибается в формах, склонениях, спряжениях слов. Сейчас об использовании этой технологии для мошенничества нам неизвестно, но технологии реальны.

Еще одной угрозой становятся видеоролики и кружки в мессенджерах, где подделываются лица знакомых людей. Например, мошенники отправляют видео или звонят по видеосвязи от имени родственника или начальника, прося финансовой помощи. Такие технологии используются не только для вымогательства денег, но и для распространения дезинформации.

На данный момент существуют алгоритмы, которые позволяют не просто качественно подделывать аудио и видео дорожки, но и делать это все в реальном времени, например, разговаривая по видеозвонку с жертвой, становится вполне реально обмануть жертву. Если говорить о видеозвонке, тут и качество видео/аудио может быть не слишком хорошим, что сыграет на руку злоумышленнику.

Для обнаружения фальсификации, даже при среднем качестве аудио/видео, необходимо уделить внимание качеству разных участков видео, мимике, плавности и синхронизации движения глаз, губ, бровей. Сделать акцент на освещении и бликах, находящихся на лице, попросить повернуться от камеры на 90 градусов (скорее всего, «маска» спадет) или повернуться вместе с камерой (свет не успеет «перестроиться»). Помимо данных рекомендаций лучше всего задать вопрос, который знаете только вы вдвоем с собеседником.

Дипфейки также находят применение в шантаже. Преступники создают компрометирующие видео, комбинируя реальные данные жертвы с поддельным контентом, и угрожают опубликовать их, если не будет выполнено требование.

Современные дипфейки уже значительно усложняют задачу идентификации фальсификаций даже для опытных пользователей, что требует разработки новых технологий защиты и повышения осведомленности об угрозах.

Технологии против дипфейков: есть ли защита

С распространением дипфейков возникает необходимость в разработке эффективных технологий для их распознавания. Современные инструменты уже способны анализировать аудио- и видеоматериалы на наличие подделок, хотя пока остаются далеко не идеальными.

Одним из подходов к выявлению дипфейков являются алгоритмы анализа микродеталей видео. Например, они могут обнаружить несоответствия в тенях, артефакты на границах объектов или нереалистичное поведение лицевых мышц. Некоторые технологии анализируют движения глаз или частоту морганий, так как подделки часто не передают эти нюансы.

Сегодняшние технологии обладают высокой точностью, но развитие дипфейков часто опережает их. Нейросети позволяют обнаруживать мелкие артефакты дипфейков, например, несовершенства в движении глаз или артефакты сжатия. Методы, основанные на анализе спектральных характеристик голоса, позволяют выявлять синтетические признаки, такие как повторяющиеся шаблоны. Программы-детекторы часто становятся частью гонки вооружений, где создатели дипфейков обучают свои модели обходить существующие системы.

В аудиодипфейках ищут отклонения в частотах голоса или подозрительно ровную интонацию. Алгоритмы могут выявлять характерные «цифровые отпечатки», оставляемые генераторами звука, и сравнивать их с оригинальными записями.

Крупные технологические компании разрабатывают собственные решения для обнаружения дипфейков. Например, Microsoft создала инструмент Video Authenticator, который оценивает вероятность подделки на основе анализа каждого кадра видео.

Технологии по распознаванию дипфейков стремительно развиваются вместе с развитием самих нейросетей и достаточно эффективны в большинстве случаях, но они еще не могут гарантировать 100% точность в выявлении подделок. Их эффективность сильно зависит от контекста, доступных ресурсов и моделей, на которых они обучаются.

Качество самих дипфейков сильно возросло, теперь нужны более сложные алгоритмы детектирования, которые включают в себя несколько комплексных методов в сочетании с биометрическими, например, анализ пиксельных артефактов, пространственно-временной анализ, проверка синхронизации речи и движения губ, отслеживания других микровыражений, сердечного ритма и т. д. Все это требует более мощные вычислительные ресурсы для выявления подделки, нежели для ее созданий. На сам анализ требуется дополнительное время, что усложняет проверку на лету.

Сегодня для противодействия дипфейкам помимо технологических решений требуется и организационный меры, такие как информирование пользователей, многоступенчатая верификация важных видеозвонков или документов, дополнительные каналы подтверждения или кодовые слова.

Несмотря на успехи в этой области, защита пока отстает от стремительного развития технологий генерации дипфейков. Мошенники быстро адаптируют свои инструменты, что делает подделки все более сложными для распознавания. Тем не менее, интеграция подобных систем в социальные сети и мессенджеры может существенно затруднить использование дипфейков в преступных целях.

Злоумышленники и их возможности

Современные мошенники демонстрируют высокий уровень профессионализма в использовании дипфейков, адаптируя новые технологии с впечатляющей скоростью. С ростом доступности инструментов генерации подделок, таких как алгоритмы DeepFake и Voice Cloning, злоумышленники значительно повысили качество и реалистичность своих подделок.

Мошенники, как правило, очень предприимчивы, креативны и зачастую продвинуты в техническом отношении. Поэтому они используют все доступные им современные технологии для достижения своих злонамеренных целей. Дипфейк не исключение.

Уже сейчас технологии находятся на таком уровне, что человеку очень сложно, а порой и невозможно, отличить, создано ли то, что он видит и слышит, другим человеком или ИИ: тексты, картинки, аудио и видео. Для этого необходимы специальные инструменты, которые смогут оперативно анализировать контент и выдавать вердикт — настоящий он или нет. Подобно тому как сейчас работают антивирусы и антиспам сервисы, блокирующие или отмечающие потенциально нежелательные программы, письма и звонки.

Поскольку речь идет о технологических инструментах, то в извечной борьбе «щита и меча» обе стороны по умолчанию имеют равные шансы.

Дипфейки активно используются для создания правдоподобных голосовых и видеообращений. Например, мошенники могут сымитировать голос начальника, чтобы дать ложные указания сотрудникам, создать видео с «родственником», просящим о срочной финансовой помощи или даже . Это особенно эффективно, когда подделки генерируются в реальном времени, что делает их еще более убедительными.

Дипфейки низкого качества, которые требуют минимальных навыков, уже поставлены на поток. Их чаще всего используют для массовых кибератак на пользователей цифровых сервисов и сотрудников компаний. Для атаки на людей, принимающих решения, топ-менеджеров, используется таргетированный фишинг, который требует более тщательной проработки контента и деталей, которые вызовут доверие у жертвы. Это необходимо, чтобы в ходе звонка или ВКС склонить к нужным действиям: вывести деньги «доверенному» лицу, на специальный счет или в иностранную юрисдикцию.

Для подготовки одной подобной таргетированной атаки в 2024 году мошенники могли потратить не менее одного-полутора миллионов рублей (аренда серверов в ЦОДе, команда дата-сайентистов, ПО для создания фейка). И эти суммы окупались в случае успеха. Но такие атаки не могут быть массовыми, так как ориентированы на конкретного человека, его окружение и требуют проработки всех нюансов.

Инструменты, которые ранее требовали значительных вычислительных ресурсов, теперь доступны практически любому пользователю. Мошенники быстро осваивают специализированные платформы и открытые библиотеки, такие как DeepFaceLab или FakeApp, адаптируя их для своих целей. Появление моделей искусственного интеллекта, способных обучаться за считаные часы, позволяет злоумышленникам оперативно настраивать алгоритмы для конкретных задач.

Уровень злоумышленников в применении дипфейков сегодня достаточно высок и продолжает расти. Мошенники демонстрируют быструю адаптацию к новым инструментам и технологиям, используя их для более целенаправленных атак. В частности, наблюдается тенденция перехода от массового телефонного мошенничества (колл-центры) к атакам на конкретных физических лиц с использованием дипфейков.

Эффективность таких атак растет, особенно на фоне недостаточной осведомленности общества об этой угрозе. Более того, широкая доступность сервисов, генерирующих реалистичных цифровых двойников, значительно упрощает работу злоумышленников.

Эта высокая адаптивность преступников вызывает серьезные опасения, так как с развитием технологий качество дипфейков продолжает расти. Без соответствующих мер защиты и обучения пользователей они становятся еще более мощным инструментом в руках злоумышленников.

Будущее дипфейков: вызовы и решения

Технологии дипфейков продолжают стремительно развиваться, предоставляя как огромные возможности, так и серьезные угрозы. В будущем алгоритмы генерации видео и аудио станут ещё более точными, быстрыми и доступными. Это приведет к созданию подделок, которые будет практически невозможно отличить от реальности невооруженным глазом. В то же время развитие машинного обучения может открыть путь к новым типам атак, где дипфейки будут использоваться в режиме реального времени, полностью имитируя манеру речи и поведение человека.

Для защиты от подобных угроз важно понимать не только технологию, но и свои уязвимости. Личная бдительность остается ключевым элементом: проверка источников, перепроверка фактов и избегание передачи конфиденциальной информации через ненадежные каналы. Важно также минимизировать объем личных данных, публикуемых в интернете, так как фотографии, видеозаписи и аудиозаписи часто становятся основой для создания поддельного контента.

Государства и бизнес уже начинают играть важную роль в борьбе с дипфейками. На законодательном уровне принимаются меры по регулированию использования технологий ИИ, в то время как крупные компании разрабатывают инструменты для автоматического распознавания подделок. Например, алгоритмы анализа метаданных, отслеживание цифровых следов редактирования и использование технологии блокчейн для подтверждения подлинности контента становятся все более популярными решениями.

Однако глобальная борьба с дипфейками требует усилий всех сторон: технологических компаний, правоохранительных органов и гражданского общества. Только скоординированный подход сможет эффективно противостоять новым вызовам, которые несет с собой эра поддельного контента.


 
  • Теги
    дипфейки
  • Назад
    Сверху Снизу