С появлением нейросетей мошенники научились использовать их для преступлений и вымогательства.
image
В начале этого года произошел инцидент, в котором киберпреступник пытался вымогать у женщины из Аризоны $1 млн., утверждая, что он похитил ее дочь. Для большей убедительности преступник пригрозил избить девочку, при этом мать заложницы, Дженнифер ДеСтефано, слышала по телефону крики, плач и отчаянные мольбы о помощи своей дочери.
Однако эти крики оказались подделками. ДеСтефано сказала полиции, что она была уверена, что человек по телефону действительно похитил ее дочь, потому что голос якобы похищенной жертвы был идентичен голосу ее дочери.
Это один из быстро растущего числа случаев, когда киберпреступники использовали ИИ-инструменты для обмана людей. Проблема стала настолько острой, что в начале июня ФБР выпустило предупреждение , в котором сообщило о многочисленных жалобах на участившуюся сексторцию – злоумышленники публикуют в сети правдоподобный порнографический контент, в том числе с участием несовершеннолетних детей, созданный с помощью технологий машинного обучения, и грозятся распространить среди друзей и знакомых потенциальных жертв в вымогательских целях.
Во многих случаях все, что нужно злоумышленникам для создания дипфейков — это небольшие образцы контента цели. Даже нескольких секунд аудиозаписи, которую человек может опубликовать в соцсетях, достаточно для клонирования голоса жертвы. По словам исследователей Trend Micro, сейчас доступно множество ИИ-инструментов, которые позволяют легко клонировать голос, используя образцы голоса, собранные из различных источников.
Ещё в мае эксперты по кибербезопасности Recorded Future предупредили о росте интереса злоумышленников к услугам по клонированию голоса в интернете (Voice Cloning-as-a-Service, VCaaS), которые позволяют упростить мошенничество с использованием технологии дипфейков. По словам Recorded Future, все чаще в даркнете появляются готовые платформы для клонирования голоса, которые снижают порог вхождения для киберпреступников. Некоторые из них бесплатны при регистрации аккаунта, а другие стоят всего около $5 в месяц.
Также в этом году стало известно о том, что новая нейросеть VALL-E от корпорации Microsoft способна подделывать голос конкретного человека вплоть до интонаций. Как сообщается, полученный образец VALL-E разбивает на мельчайшие фрагменты и сравнивает их с уже имеющейся базой данных. Обладая информацией о том, как в разных ситуациях звучат голоса других людей, нейросеть «предполагает», как в тех же ситуациях будет звучать голос «донора».
Помимо подделки голоса для преступлений также существует голосовая аутентификация – еще одна вещь, которую стоит бояться. Недавно компьютерные ученые из Университета Ватерлоо разработали метод атаки , который может успешно обходить системы безопасности по голосовой аутентификации с вероятностью успеха до 99% после шести попыток.
image
В начале этого года произошел инцидент, в котором киберпреступник пытался вымогать у женщины из Аризоны $1 млн., утверждая, что он похитил ее дочь. Для большей убедительности преступник пригрозил избить девочку, при этом мать заложницы, Дженнифер ДеСтефано, слышала по телефону крики, плач и отчаянные мольбы о помощи своей дочери.
Однако эти крики оказались подделками. ДеСтефано сказала полиции, что она была уверена, что человек по телефону действительно похитил ее дочь, потому что голос якобы похищенной жертвы был идентичен голосу ее дочери.
Это один из быстро растущего числа случаев, когда киберпреступники использовали ИИ-инструменты для обмана людей. Проблема стала настолько острой, что в начале июня ФБР выпустило предупреждение , в котором сообщило о многочисленных жалобах на участившуюся сексторцию – злоумышленники публикуют в сети правдоподобный порнографический контент, в том числе с участием несовершеннолетних детей, созданный с помощью технологий машинного обучения, и грозятся распространить среди друзей и знакомых потенциальных жертв в вымогательских целях.
Во многих случаях все, что нужно злоумышленникам для создания дипфейков — это небольшие образцы контента цели. Даже нескольких секунд аудиозаписи, которую человек может опубликовать в соцсетях, достаточно для клонирования голоса жертвы. По словам исследователей Trend Micro, сейчас доступно множество ИИ-инструментов, которые позволяют легко клонировать голос, используя образцы голоса, собранные из различных источников.
Ещё в мае эксперты по кибербезопасности Recorded Future предупредили о росте интереса злоумышленников к услугам по клонированию голоса в интернете (Voice Cloning-as-a-Service, VCaaS), которые позволяют упростить мошенничество с использованием технологии дипфейков. По словам Recorded Future, все чаще в даркнете появляются готовые платформы для клонирования голоса, которые снижают порог вхождения для киберпреступников. Некоторые из них бесплатны при регистрации аккаунта, а другие стоят всего около $5 в месяц.
Также в этом году стало известно о том, что новая нейросеть VALL-E от корпорации Microsoft способна подделывать голос конкретного человека вплоть до интонаций. Как сообщается, полученный образец VALL-E разбивает на мельчайшие фрагменты и сравнивает их с уже имеющейся базой данных. Обладая информацией о том, как в разных ситуациях звучат голоса других людей, нейросеть «предполагает», как в тех же ситуациях будет звучать голос «донора».
Помимо подделки голоса для преступлений также существует голосовая аутентификация – еще одна вещь, которую стоит бояться. Недавно компьютерные ученые из Университета Ватерлоо разработали метод атаки , который может успешно обходить системы безопасности по голосовой аутентификации с вероятностью успеха до 99% после шести попыток.
Для просмотра ссылки необходимо нажать
Вход или Регистрация