В интернете стремительно выросло количество доступных программ по созданию дипфейков.
Сегодня их более 50 тыс., хотя еще два года назад таких решений практически не было.
«В открытом доступе появилось более 50 тыс. бесплатных инструментов для генерации дипфейков — от мобильных программ до сложных платформ с искусственным интеллектом», — рассказали в пресс-службе MWS AI (входит в МТС Web Services, ранее MTS AI).
«Известия» провели свой эксперимент по созданию дипфейка и убедились, что для этого требуется минимум усилий и опыта. Для цифрового аватара понадобилось всего лишь две фотографии — корреспондента и его знакомого.
Дальнейшие шаги были просты: фото загрузили в один из популярных онлайн-сервисов, предлагающих функцию замены лица, а в качестве шаблона выбрали заранее подготовленное фото с человеком. Программа автоматически подставила лицо журналиста на тело другого человека — без каких-либо ручных настроек или дополнительной обработки. Процесс занял не более 10 минут. Для создания же видеоролика потребуется немного больше усилий и финансовые вложения — необходимо купить подписку, открывающую доступ к улучшенным алгоритмам. В среднем это стоит от $3–6 в месяц.
Резкий рост числа доступных инструментов для создания дипфейков — тревожный сигнал. Сегодня любой пользователь с базовыми навыками может сгенерировать реалистичное видео или аудио от лица любого человека — родственника до представителя власти. Основная угроза заключается не только в фейковых новостях или репутационных атаках, но и в практическом применении этих технологий мошенниками.
«Дипфейки используются для обмана граждан и организаций: поддельные голоса руководителей, видеообращения от «сотрудников банка», «чиновников» или «родственников» становятся частью сложных схем социальной инженерии».
Проблема усугубляется тем, что распознать дипфейк становится всё сложнее — технологии генерации развиваются быстрее, чем средства защиты. Для обывателя разница между настоящим и синтетическим контентом почти незаметна — это создает почву для массовых манипуляций и разрушения доверия к визуальным и аудиодоказательствам в целом.
Сегодня их более 50 тыс., хотя еще два года назад таких решений практически не было.

«В открытом доступе появилось более 50 тыс. бесплатных инструментов для генерации дипфейков — от мобильных программ до сложных платформ с искусственным интеллектом», — рассказали в пресс-службе MWS AI (входит в МТС Web Services, ранее MTS AI).
«Известия» провели свой эксперимент по созданию дипфейка и убедились, что для этого требуется минимум усилий и опыта. Для цифрового аватара понадобилось всего лишь две фотографии — корреспондента и его знакомого.
Дальнейшие шаги были просты: фото загрузили в один из популярных онлайн-сервисов, предлагающих функцию замены лица, а в качестве шаблона выбрали заранее подготовленное фото с человеком. Программа автоматически подставила лицо журналиста на тело другого человека — без каких-либо ручных настроек или дополнительной обработки. Процесс занял не более 10 минут. Для создания же видеоролика потребуется немного больше усилий и финансовые вложения — необходимо купить подписку, открывающую доступ к улучшенным алгоритмам. В среднем это стоит от $3–6 в месяц.
Резкий рост числа доступных инструментов для создания дипфейков — тревожный сигнал. Сегодня любой пользователь с базовыми навыками может сгенерировать реалистичное видео или аудио от лица любого человека — родственника до представителя власти. Основная угроза заключается не только в фейковых новостях или репутационных атаках, но и в практическом применении этих технологий мошенниками.
«Дипфейки используются для обмана граждан и организаций: поддельные голоса руководителей, видеообращения от «сотрудников банка», «чиновников» или «родственников» становятся частью сложных схем социальной инженерии».
Проблема усугубляется тем, что распознать дипфейк становится всё сложнее — технологии генерации развиваются быстрее, чем средства защиты. Для обывателя разница между настоящим и синтетическим контентом почти незаметна — это создает почву для массовых манипуляций и разрушения доверия к визуальным и аудиодоказательствам в целом.
Для просмотра ссылки необходимо нажать
Вход или Регистрация