На россиян обрушилась волна предложений заработка при помощи голоса – например, в Сети масса объявлений о работе в озвучке рекламных роликов. Как пишут «Ведомости», за ними стоят не совсем честные граждане – они зачастую собирают образцы голосов россиян, которые затем «скармливают» нейросетям для их обучения. Нередки случаи, когда затем эти образцы становятся основой для генерации так называемых «дипфейков».
Дипфейк – это очень достоверная копия чего-либо. Термин получил распространение с развитием нейросетей, но поначалу касался только видео – искусственный интеллект позволил делать визуальные цифровые копии людей, что стали применять в рекламе, мошенничестве и порнографии. Есть немало примеров, когда мошенники шантажировали своих жертв при помощи сгенерированных порно-дипфейков с ними.
С голосом примерно та же схема, только здесь чаще всего жертвами становятся не сами владельцы голосов, а их друзья, знакомые и родственники. Например, при помощи голосового дипфейка можно вымогать деньги.
В отчете Angara Security сказано, что голосовыми данными россиян мошенники интересуются не первый год, но с течением времени их интерес с к ним крепнет. Так, в 2021 г. аналитики выявили около 1200 сообщений с предложением «поработать голосом», и это еще без учета спам-звонков. Годом позже их стало 4800, то есть рост оказался четырехкратным. Результат 2023 г. – 7000 объявлений.
Мошенники, стараясь максимально автоматизировать процесс получения нужной им информации, решили переложить все на плечи самих россиян. В тексте своих объявлений они просят потенциальных жертв прислать аудиозапись своего голоса, будь то запись разговора или телефонного звонка.
При этом ни о каких баснословных гонорарах за работу в таких объявлениях речи не идет – чаще всего предлагают от 300 до 5000 руб. Но, как указывают в Angara Security, чаще всего те, кто решил подзаработать и поделился с неизвестными образцами своего голоса, чаще иногда все же получают обещанный гонорар.
Получив образец голоса россиянина, мошенники затем могут использовать его для звонков его друзьям, коллегам и родственникам. Они также могут обращаться от его имени в банки, где у него открыт счет.
Отметим, что метод с объявлениями о найме – это очень изящный способ получения голосовых данных, но еще чаще мошенники применяют метод грубой силы. Они просто взламывают профили россиян в соцсетях и мессенджерах, выуживают оттуда голосовые сообщения и делают на их основе дипфейки. О факте существования такого метода воровства голоса ИБ-эксперты Сбербанка говорили еще в начале 2024 г.
В Сбербанке не публикуют оценку потенциального и фактического ущерба, нанесенного россиянам путем кражи и использования их голоса. Эксперты утверждают, что пока таких случаев еще не очень много, но, по-видимому, ключевое слово здесь – «пока».
Если смотреть на ситуацию с обманом россиян в целом, то по итогам 2023 г. мошенники украли у них 19 млрд руб., согласно статистике, предоставленной зампредом правления Сбербанка Станислава Кузнецова.
Опрошенные изданием эксперты обратили внимание на еще один потенциальный источник образцов голосов россиян. Мошенники могут получать их из видеороликов, опубликованных в социальных сетях.
Другими словами, видеосообщения, размещенные на личных страницах пользователей, а также ролики, загруженные на их каналы в YouTube и российских его аналогах – все это может очень пригодиться мошенникам. Получив к ним доступ, им даже не придется тратить время на размещение объявлений о работе и ждать, пока с ними свяжутся. Взламывать аккаунты тоже, скорее всего, не потребуется – как правило, ролики и видеосообщения размещаются в общем доступе.
Дипфейк – это очень достоверная копия чего-либо. Термин получил распространение с развитием нейросетей, но поначалу касался только видео – искусственный интеллект позволил делать визуальные цифровые копии людей, что стали применять в рекламе, мошенничестве и порнографии. Есть немало примеров, когда мошенники шантажировали своих жертв при помощи сгенерированных порно-дипфейков с ними.
С голосом примерно та же схема, только здесь чаще всего жертвами становятся не сами владельцы голосов, а их друзья, знакомые и родственники. Например, при помощи голосового дипфейка можно вымогать деньги.
Все только начинается
На проблему безопасности голосов россиян обратили внимание эксперты ИБ-компании Angara Security. Они сообщил изданию, что объявления с набором актеров озвучания стали появляться на крупнейших платформах размещения вакансий, а также в Telegram. Некоторые «ортодоксальные» мошенники по-прежнему полагаются на обзвоны – они звонят совершенно незнакомым людям и предлагают им работу. Однако нет никакой гарантии того, что даже во время этого телефонного разговора не ведется запись, которая в дальнейшем превратится в виртуальную копию голоса.В отчете Angara Security сказано, что голосовыми данными россиян мошенники интересуются не первый год, но с течением времени их интерес с к ним крепнет. Так, в 2021 г. аналитики выявили около 1200 сообщений с предложением «поработать голосом», и это еще без учета спам-звонков. Годом позже их стало 4800, то есть рост оказался четырехкратным. Результат 2023 г. – 7000 объявлений.
Мошенники, стараясь максимально автоматизировать процесс получения нужной им информации, решили переложить все на плечи самих россиян. В тексте своих объявлений они просят потенциальных жертв прислать аудиозапись своего голоса, будь то запись разговора или телефонного звонка.
При этом ни о каких баснословных гонорарах за работу в таких объявлениях речи не идет – чаще всего предлагают от 300 до 5000 руб. Но, как указывают в Angara Security, чаще всего те, кто решил подзаработать и поделился с неизвестными образцами своего голоса, чаще иногда все же получают обещанный гонорар.
Получив образец голоса россиянина, мошенники затем могут использовать его для звонков его друзьям, коллегам и родственникам. Они также могут обращаться от его имени в банки, где у него открыт счет.
Отметим, что метод с объявлениями о найме – это очень изящный способ получения голосовых данных, но еще чаще мошенники применяют метод грубой силы. Они просто взламывают профили россиян в соцсетях и мессенджерах, выуживают оттуда голосовые сообщения и делают на их основе дипфейки. О факте существования такого метода воровства голоса ИБ-эксперты Сбербанка говорили еще в начале 2024 г.
В Сбербанке не публикуют оценку потенциального и фактического ущерба, нанесенного россиянам путем кражи и использования их голоса. Эксперты утверждают, что пока таких случаев еще не очень много, но, по-видимому, ключевое слово здесь – «пока».
Если смотреть на ситуацию с обманом россиян в целом, то по итогам 2023 г. мошенники украли у них 19 млрд руб., согласно статистике, предоставленной зампредом правления Сбербанка Станислава Кузнецова.
Опрошенные изданием эксперты обратили внимание на еще один потенциальный источник образцов голосов россиян. Мошенники могут получать их из видеороликов, опубликованных в социальных сетях.
Другими словами, видеосообщения, размещенные на личных страницах пользователей, а также ролики, загруженные на их каналы в YouTube и российских его аналогах – все это может очень пригодиться мошенникам. Получив к ним доступ, им даже не придется тратить время на размещение объявлений о работе и ждать, пока с ними свяжутся. Взламывать аккаунты тоже, скорее всего, не потребуется – как правило, ролики и видеосообщения размещаются в общем доступе.
Для просмотра ссылки необходимо нажать
Вход или Регистрация