Всего трех секунд хватает для идеальной подделки.
Привычная функция современных смартфонов неожиданно превратилась в серьезную угрозу безопасности. Как выяснилось, персональное голосовое приветствие на автоответчике может стать для мошенников настоящей находкой.
Согласно данным Transaction Network Services (TNS), которая занимается телекоммуникационной и финансовой инфраструктурой по всему миру, искусственному интеллекту достаточно трех секунд аудиозаписи, чтобы в точности воспроизвести голос человека, причем для этого подойдут даже бесплатные ИИ-приложения.
Генеративные системы научились с поразительной точностью копировать особенности человеческой речи. Они способны воссоздать не только тембр, но и манеру говорить: интонации, темп, характерное произношение. С помощью поддельных записей злоумышленники шантажируют людей, вымогают деньги, порочат репутацию граждан и организаций, массово распространяют политическую и прочую дезинформацию.
Среди схем с применением ИИ особенно распространена имитация голосов членов семьи. Схема особенно эффективна против пожилых людей: преступники звонят бабушкам и дедушкам, имитируя голос внука или внучки. Фальшивый "родственник" сообщает о срочной проблеме – аварии, задержании полицией или внезапной госпитализации. Паника и страх за близкого человека часто заставляют жертву действовать быстро, не задумываясь о возможном обмане.
Для топ-менеджеров угроза оказывается в разы серьезнее. Недавно генеральные директора крупных американских IT-компанией рассказали
Соучредитель и глава компании Halcyon, специализирующейся на борьбе с программами-вымогателями, Джон Миллер напомнил о громком взломе MGM. В 2023 году с помощью технологии голосового клонирования преступники смогли обмануть системы безопасности корпорации. Поддельный голос руководителя помог им получить доступ к критически важной инфраструктуре, что привело к масштабной утечке данных.
По словам Миллера, профессионалы обязательно проверяют подозрительные звонки. Однако обычные сотрудники, особенно те, кто работает недавно, часто теряются, особенно когда слышат властный голос руководителя, требующего срочно предоставить пароли или другие секретные данные.
Руководителей также часто атакуют через целевой фишинг, который в профессиональной среде называют "whale phishing" (китобойный промысел). Термин подчеркивает масштаб потенциальной добычи: вместо массовой рассылки выбирают конкретную высокопоставленную жертву. Готовясь к атаке, преступники могут неделями собирать информацию из социальных сетей, профессиональных форумов и публичных выступлений человека, чтобы досконально изучить ее манеру общения, круг контактов и текущие проекты - рычаги, на которые можно будет нажать.
Что же делать? В первую очередь стоит свести к минимуму количество голосовых сообщений, которыми вы обмениваетесь в социальных сетях с друзьями, семьёй, коллегами, да и вообще кем угодно. А также отказаться от голосовой биометрии при подтверждении личности.
Вместо личного приветствия для недозвонившихся лучше оставить стандартное сообщение от оператора связи.
Если звонит незнакомый абонент, эксперты рекомендуют не произносить ни слова, пока не заговорит собеседник. Так мошенникам будет в разы сложнее получить образец для создания подделки.
Можно также придумать особое кодовое слово для всей семьи. Такой секретный пароль, который знают только близкие, поможет удостовериться в подлинности срочных сообщений. Кроме того, его можно использовать как сигнал тревоги, если мошенники взломают аккаунты в социальных сетях и начнут публиковать материалы с поддельным голосом.

Привычная функция современных смартфонов неожиданно превратилась в серьезную угрозу безопасности. Как выяснилось, персональное голосовое приветствие на автоответчике может стать для мошенников настоящей находкой.
Согласно данным Transaction Network Services (TNS), которая занимается телекоммуникационной и финансовой инфраструктурой по всему миру, искусственному интеллекту достаточно трех секунд аудиозаписи, чтобы в точности воспроизвести голос человека, причем для этого подойдут даже бесплатные ИИ-приложения.
Генеративные системы научились с поразительной точностью копировать особенности человеческой речи. Они способны воссоздать не только тембр, но и манеру говорить: интонации, темп, характерное произношение. С помощью поддельных записей злоумышленники шантажируют людей, вымогают деньги, порочат репутацию граждан и организаций, массово распространяют политическую и прочую дезинформацию.
Для просмотра ссылки необходимо нажать
Вход или Регистрация
дипфейков толкает регуляторов на самые решительные меры: например, в феврале 2024 года Федеральная комиссия по связи США полностью запретила использование автоматических звонков с применением искусственного интеллекта. Поводом послужила волна социальной инженерии нового типа – злоумышленники научились записывать голос жертвы во время разговора, а затем использовать запись как им вздумается. Похожие регулировки внедряются и в других странах. Но достаточно ли этого?Среди схем с применением ИИ особенно распространена имитация голосов членов семьи. Схема особенно эффективна против пожилых людей: преступники звонят бабушкам и дедушкам, имитируя голос внука или внучки. Фальшивый "родственник" сообщает о срочной проблеме – аварии, задержании полицией или внезапной госпитализации. Паника и страх за близкого человека часто заставляют жертву действовать быстро, не задумываясь о возможном обмане.
Для топ-менеджеров угроза оказывается в разы серьезнее. Недавно генеральные директора крупных американских IT-компанией рассказали
Для просмотра ссылки необходимо нажать
Вход или Регистрация
о множестве случаев, когда преступники копировали голоса их знакомых руководителей, чтобы манипулировать персоналом. При этом часто они еще и подделывали телефонные номера боссов.Соучредитель и глава компании Halcyon, специализирующейся на борьбе с программами-вымогателями, Джон Миллер напомнил о громком взломе MGM. В 2023 году с помощью технологии голосового клонирования преступники смогли обмануть системы безопасности корпорации. Поддельный голос руководителя помог им получить доступ к критически важной инфраструктуре, что привело к масштабной утечке данных.
По словам Миллера, профессионалы обязательно проверяют подозрительные звонки. Однако обычные сотрудники, особенно те, кто работает недавно, часто теряются, особенно когда слышат властный голос руководителя, требующего срочно предоставить пароли или другие секретные данные.
Руководителей также часто атакуют через целевой фишинг, который в профессиональной среде называют "whale phishing" (китобойный промысел). Термин подчеркивает масштаб потенциальной добычи: вместо массовой рассылки выбирают конкретную высокопоставленную жертву. Готовясь к атаке, преступники могут неделями собирать информацию из социальных сетей, профессиональных форумов и публичных выступлений человека, чтобы досконально изучить ее манеру общения, круг контактов и текущие проекты - рычаги, на которые можно будет нажать.
Что же делать? В первую очередь стоит свести к минимуму количество голосовых сообщений, которыми вы обмениваетесь в социальных сетях с друзьями, семьёй, коллегами, да и вообще кем угодно. А также отказаться от голосовой биометрии при подтверждении личности.
Вместо личного приветствия для недозвонившихся лучше оставить стандартное сообщение от оператора связи.
Если звонит незнакомый абонент, эксперты рекомендуют не произносить ни слова, пока не заговорит собеседник. Так мошенникам будет в разы сложнее получить образец для создания подделки.
Можно также придумать особое кодовое слово для всей семьи. Такой секретный пароль, который знают только близкие, поможет удостовериться в подлинности срочных сообщений. Кроме того, его можно использовать как сигнал тревоги, если мошенники взломают аккаунты в социальных сетях и начнут публиковать материалы с поддельным голосом.
Для просмотра ссылки необходимо нажать
Вход или Регистрация