QR-коды и CAPTCHA парализуют защитные системы: ИИ теряет контроль

Специальный корреспондент
Собака

Собака

Пресс-служба
Ветеран пробива
Private Club
Регистрация
13/10/15
Сообщения
55.673
Репутация
63.790
Реакции
278.864
RUB
0
Комбинация техник позволяет обходить даже сложные алгоритмы защиты электронной почты.

mbnd1jcg069bporsygoxmprljyei0ndc.jpg


Традиционные методы определения фишинговых писем по грамматическим ошибкам и навязчивому стилю общения больше не работают. Как сообщается в новом отчёте компании Cofense Intelligence под названием «AI Alone is Not Bulletproof» , злоумышленники начали активно использовать ChatGPT и другие ИИ-инструменты для создания безупречных текстов.

Несмотря на то, что специалисты по кибербезопасности также применяют искусственный интеллект для защиты электронной почты, многие фишинговые письма всё равно попадают в почтовые ящики пользователей. Основная проблема заключается в том, что модели искусственного интеллекта и машинного обучения обучаются на исторических данных, в то время как новые угрозы развиваются молниеносно.

При этом системы на базе ИИ демонстрируют определённые успехи. По данным Cofense Intelligence, искусственный интеллект способен понимать логику подозрительных писем и распознавать технику тайпсквоттинга — когда хакеры используют опечатки для перенаправления пользователей на вредоносные сайты, например, «vvindows[.]com» или «wallrnart[.]com».

Автор отчёта Джейкоб Малимбан отмечает, что ИИ может как помогать организациям, так и наносить им вред, особенно если модель недостаточно обучена и оставлена без присмотра. Современные шлюзы безопасности электронной почты способны блокировать сообщения с призывами к срочным действиям, однако ситуация усложняется, когда хакеры используют автоматизированные инструменты для сбора информации о сотрудниках компании.

Эксперты предупреждают об опасности компрометации учётных записей — злоумышленники могут обучить ИИ копировать стиль письма жертвы. В сочетании с возможностью отвечать в существующих цепочках писем от имени взломанного аккаунта, это делает новые цели менее бдительными.

Отдельную угрозу представляют дипфейки, позволяющие имитировать внешность и голоса доверенных контактов с растущей точностью. Даже компания LastPass, специализирующаяся на кибербезопасности, признала , что стала жертвой мошенничества с использованием дипфейка, когда злоумышленники подделали голос генерального директора.

Cofense Intelligence приводит пример атаки , в ходе которой преступники смогли имитировать голоса финансового директора и других сотрудников во время конференц-звонка, убедив организацию-жертву перевести средства. Эта изощрённая атака обошлась компании в 25 миллионов долларов.

Искусственный интеллект также демонстрирует низкую эффективность при анализе писем, требующих действий от пользователя, например, сканирования QR-кода. Мошенники легко обходят защиту, встраивая вредоносные ссылки или QR-коды в PDF-файлы и используя CAPTCHA для усложнения автоматического анализа.

По мнению экспертов, наступательный ИИ, используемый злоумышленниками, будет развиваться быстрее защитного, поскольку не ограничен правовыми, авторскими или этическими нормами.






 
  • Теги
    ии возможности
  • Назад
    Сверху Снизу