Говорит и показывает дипфейк: как далеко заведут преступников технологии

Marat_1162

Стаж на ФС с 2014 г
Private Club
Старожил
Migalki Club
Меценат
Регистрация
25/3/16
Сообщения
4.639
Репутация
9.166
Реакции
22.683
RUB
0
Депозит
3 500 рублей
Сделок через гаранта
4
Еще недавно в ходу было такое мошенничество: позвонить от имени «сына», попавшего в беду, и попросить денег. Сегодня цифровой арсенал для подобного обмана продвинулся. С помощью технологий можно имитировать голос и воссоздать внешность для видеозвонка
Фото: Midjourney

Фото: Midjourney

В 2022 году только в США компании и простые граждане потеряли почти $8,8 млрд от действий кибермошенников. Это на 44% больше, чем в 2021 году. В 2023-м глобальные потери от хакеров могут достичь рекордных $8 трлн.

Методы преступников совершенствуются по мере развития искусственного интеллекта. Одной из самых больших угроз кибербезопасности сегодня становится поддельный медиаконтент — дипфейки. Понять, что перед ним именно он, порой не может даже эксперт. А обычному человеку распознать обман практически невозможно.

Не верь глазам своим​

Дипфейк — это технология, основанная на ИИ, которая позволяет подделывать изображения людей. Нейросеть способна воспроизвести полную цифровую копию человека, воссоздавая не только его лицо, мимику, одежду, но и голос. Поэтому отличить подделку от оригинала практически невозможно.

В этом убедился глава компании по информационной безопасности CyberArk Software Ltd Уди Мокади. Во время видеоконференции с коллегами он увидел дипфейк с собственным изображением. Двойник сидел в его кабинете, одетый в толстовку с капюшоном.



Оказалось, что цифровую копию создал сотрудник его компании Гал Зрор. Для этого он воспользовался бесплатными инструментами ИИ и опытом порноиндустрии, которая сейчас активно использует нейросеть для создания откровенных видео. Например, к телу порноактера могут добавить голову известного человека, а затем распространяют контент в соцсетях.

Зрору, для того чтобы сделать дипфейк, также потребовались фотографии Мокади, отрывки видео с презентаций и записанные голосовые сообщения. На создание поддельного председателя компании потребовалось несколько дней.

Чтобы получить цифровую копию человека, не обязательно быть IT-специалистом. Весной китайская компания Tencent Cloud запустила цифровую платформу Deepfakes-as-a-Service (DFaaS), где любой желающий за $145 может создать дипфейк. Для этого надо иметь всего три минуты видео и аудиозапись с 100 фразами. Найти исходный материал несложно — все необходимое часто есть в открытом доступе в соцсетях.

Дипфейк для финансового мошенничества​

Моделировать голос при помощи специальных программ на основе искусственного интеллекта мошенники научились уже давно. Так, в 2019 году исполнительный директор британской энергетической компании перевел $249 тыс. мошеннику, который разговаривал с ним голосом гендиректора материнской компании.

Прошло несколько лет, и методы преступников стали еще совершеннее, поэтому процесс подделки стал намного проще. Для этого достаточно иметь 30-секундный аудиофрагмент. Личные данные, а также сведения о родственниках и друзьях будущей жертвы легко найти в соцсетях. Неудивительно, что именно мошенничество в области социальной инженерии (психологическое манипулирование людьми) остается самым доходным для хакеров.
Кроме того, ИИ помогает масштабировать атаки. Так, сотрудники отдела кибербезопасности австралийского банка Commonwealth Bank of Australia фиксируют миллионы случаев мошенничеств ежедневно. Чтобы справиться с таким объемом, финансовые учреждения вынуждены перестраивать систему мониторинга. Банковский холдинг Wells Fargo уже модернизировал программы для распознавания видеороликов и голосовых сообщений, созданных ИИ.

Борьба банков и хакеров не прекращается ни на минуту — кредитные организации ужесточают правила, а преступники придумывают новые способы обмана. Например, некоторые банки в США требуют, чтобы клиенты загружали фотографию документа, удостоверяющего личность, при регистрации учетной записи. Чтобы обойти это препятствие, мошенники покупают украденные данные в даркнете, находят фотографии своих жертв в социальных сетях и печатают маски с их лицами на 3D-принтере. Затем они создают поддельное удостоверение личности с украденной информацией.

Распознать такие копии очень сложно. Но все же возможно, и методы разоблачения дипфейков тоже совершенствуются. Появляются целые компании, которые помогают банкам бороться с виртуальным мошенничеством. Так, фирма в Plaid Inc. анализирует текстуру и прозрачность кожи, чтобы убедиться, что человек на фотографии в удостоверении личности реальный.

Борются с дипфейками не только банки и отдельные компании, но и целые страны. В Китае, например, ужесточили контроль за использованием приложений на основе ИИ, после того как страну накрыла волна дипфейков. А в Великобритании от властей требуют призвать к ответственности технологические компании за создание программ, которыми пользуются киберпреступники.

Источники: , , Forbes
 
  • Теги
    дипфейки
  • Сверху Снизу