Злые аналоги ChatGPT: xxXGPT, WormGPT, WolfGPT, FraudGPT, DarkBERT, HackerGPT

BOOX

Стаж на ФС с 2012 года
Команда форума
Служба безопасности
Private Club
Регистрация
23/1/18
Сообщения
28.781
Репутация
11.595
Реакции
61.695
RUB
50
Одним из ярких примеров прорыва в области искусственного интеллекта стало появление чат-ботов с генеративным ИИ, таких как ChatGPT от компании OpenAI.


За этим, однако, последовало создание их «злых» аналогов, специально обученных работать без этических ограничений. Расскажем, в чём состоит опасность и как с нею бороться.

Введение

ChatGPT и подобные ей системы на базе больших языковых моделей способны генерировать связные тексты, отвечать на вопросы, поддерживать диалог практически на любые темы, опираясь на обширную базу знаний. У них есть важное ограничение: разработчики стремятся не допустить их использования во вред кому-либо. Но что будет, если убрать эти ограничения? В последнее время в СМИ и профессиональном сообществе активно обсуждаются так называемые «злые» версии ChatGPT — чат-боты с минимальным набором этических ограничений. Рассмотрим наиболее известные среди них.

WHD3dkQrHZ9_SWeEUdulvdXwmR-v6kU5APN1luQpIke-JIWTWAAvNHZTdeHGzKFcHMNCvk8d-DxfagS8mT8uMEqmpCXSb4ga6wI2wtBIMKgXZxkOObjV_ccktBN3OaIE5XGVl0sWOiCtk7cjgQdr1NteWHUWg-e2gCqXK9u46yETabSvBKReHH5OopQcnC1zXrqYGqEySzebuXWdvKcgCXUmzFqA1zGkqQoo-RAILJRX1xG_UsjgN05lGSeR766sneOppgyrllh7DKYSUF8uu9s3lBkj_0F4mfl2XX4n4Qc0J0QRQVd0a2GG5jVcjaRS3hIf-FtE7HXA4VimFKXpr5wt7e4F4l7btQ4oUVafYn6UdlNebXdPvR97v1r-ri5ANeUF00qY-CImhmv7VYOsXdPVlDoUiSj-CGtQaxCgpGiWrKGkQa8RVraEKpXS1-K0lraSE218RLLZM31Vsu9oTnqtxhnOUrzkpoRnvpHJYFHS11W_lsHjvUlnGCEdL64n0OUub0QnmB5zzqJeWt9l9FryE9Puegn5nr8xkzltoQJ0rI4eAlO9625CJ7rZAiIZkBjW-xpFZ7XIp91k1KkrqlBvbqAMqhNZPE6tVZLbJb-UtlqbqbBCPZc4fpi9pepE8WYCFYIf9G3hw278WIGuUVhd0bxYB-Iyx6dTbtXp5GQYp-1vzuYfH3UP5txRX-DwEnCVGKuwRDkdN78Yt6kvhzBgThFIFXwl6cqvd1YDr5VZn1M_Gsvk9AZuUiAV4uzmVqdt5Uhq1RP_j-saFVkidty7nhIm-k_02HC23j_vak34rUhQz5h0raaLKX0YyacS093TdRKM6D-DbZzg2uFladBnIG5MLVCcNgft1hNUJf-S-ZOa5XPIudV0Op-7728OOOUEHg3U9WpgTqt3387uVxZS0nhciuA5yCoU655o7emY6mmsTy1b1rQA5RNb1mnyEfCWliJ8QnLS-P3S--OixnduTNKFVznqJMqpetTD5pnQ3VK8n0CrcIkvE-tcK-Pp3e7nbwok1JBzhaEcEJEoMFVwE5luOwW1HzS1Gv2q6AIzKcQehtV97WzFKf_Wg6Te2h3e9VZNa_1KoZjvkeKlbd1nYKfAZ9wZtMRjn16V5X9a8tje5buM8NN4ttn5YmAM82eHkYeesODozGo1nUgnHh-YXXpTSyI2CGsV4JqoYe3Xoqkhx6tU0roNK5Zdmy58V_DR0W45CT7QsHSVvWPnTHArhN-OUjgoK42j_NlAIJ_a1B43WILkckCnke8eKW9lUOfmrQUnFZMyiSufXBBut57z0NutOkQ-mbuw1nVmoMU3rwpViBe5YiGPL7HRCOeQWtwVfJRMqr1IY9Vsk-LnZ5CqoWFPZ5FZcoNqVlSVaDOd_9bYKzoK-FfwMR3yo27AtCGD0IVSMmXpRyB63I6mlpWYmTVaRK23xiBcIdHqo-mXY6HsBysVHHPE6lpTlqB73jIS2Kx1B_wYM_VS8Sarzn0nQheLWvrkbASpdxeKrVefl5oznAWgMA4rXSFSIWkmF-OkZIlsmJO-ge-ZmpXsdpU_3pbpO0X5kX_60P3i68V95gJeAV_7beaKaTKQBS3W1RcdeJ5ApHDI4pNm0aAlJ1jt5CUF6lucfsWglByfIb1R_pgR67dHONg-cJ50K68Gu65NmIYcsakiAWg62w4qH9JeVTiTiWsxzq2VLt4va23dYijnTKieEb1OIFwaUCV_WjpZGSNxiH3YsfgRNiolAbOtzxqHW7niLMTo8dCKbxnalhP6H8Hu-YCtGS7ebmMt0i0hLU-rHR-0iaMT0ZFke5P3klqltIu8knI40L_vIEB87s4TShKzLSuC7TTYAa7cXRPcslfJJv7J6BjvXi-uolZk7a3H55ifP0tqXVoYavDf9ZyXqrIKttPx8Z91b-9F9KmMnwGXfyrpTq803sJv2NqcFXSYxy04Qy2c6ZDqpaTWbCjmjCrYX_tMbtye1-_8n_GbXi60DDEeuv4f9eajSntrApIHUr-k74Ku_hRMLVcQGtI8nwPk_s8qlGYeK6sv0KenJ4nv3xOyB-lRnVTqtt6z3dKqvIpwHb7wm7EpIsp67kRXgZW86qePYfNXCihcUh8aPRBPKnyPqNxhk-3tpt4gLCZH5VWYf82jl1tVrzJaetLQp_xB_l77PdK2IyeKMKVHkMcXdGqjza56EUplXZhTW_CQiS8-jiLYqltt7ChU7SLrhqTYFnlL6dpQFmA6nfBYUqu3gfLXsfmXt6Xnx3AnRNhC0jtvYIbnN1BLLJcamto1UUSmuEIrEumdqSUmEGolrUetHFj1BiHfU94l95u_0RFkfYs9Wrk1knQqoE09bUdfRZezaiqO7rUeQaaRk1tUsteNIzQHb5AuVCDl6lYtZ2UNIhlc-8Tg2VJe7fRevxpT7nRINtb8vhk9JqpGs-4KGs5bdSNujaPxFUam1NrXU_UeC6w5ymjaJxuq4-0YZA


Обзор «злых» аналогов ChatGPT

➡️ xxXGPT

Одним из первых аналогов ChatGPT, ориентированных на киберпреступников, стал xxXGPT. Информация о нём появилась на хакерском форуме XSS в июле 2023 года. xxXGPT рекламировался как чат-бот с возможностью генерации неограниченного и нецензурированного контента, доступный по подписке за 90 долларов США в месяц.

Автор объявления заявлял, что xxXGPT способен создавать персонализированный ИИ-контент без каких-либо этических ограничений, который мог бы применяться в различных противоправных целях. Однако никаких подробностей реальных возможностей xxXGPT, отзывов пользователей или доказательств работоспособности представлено не было.

➡️ WormGPT

Это чат-бот, предназначенный для помощи киберпреступникам в создании вредоносных программ, проведении фишинговых атак и выполнении других незаконных действий без каких-либо этических ограничений. Разработчик WormGPT продаёт доступ к программе на популярном хакерском форуме. Для создания чат-бота использовалась старая модель с открытым исходным кодом GPT-J от 2021 года, обученная на данных о создании вредоносных программ.

Эксперименты поставщика услуг по защите электронной почты SlashNext показали, что WormGPT способен создавать убедительные и стратегически продуманные фишинговые письма без орфографических и грамматических ошибок. Хотя доступ к WormGPT стоит недёшево и некоторые покупатели жалуются на низкую производительность, это — зловещая иллюстрация того, как программы генеративного искусственного интеллекта могут подпитывать киберпреступность по мере своего развития.

➡️ WolfGPT

В июле 2023 года в телеграм-каналах стала распространяться информация о новом чат-боте под названием WolfGPT. В рекламных постах он описывался как «зловещее творение ИИ на Python, представляющее тёмную силу, превосходящую как ChatGPT, так и WormGPT». Утверждалось, что WolfGPT обладает способностью генерировать вредоносные программы и фишинговые тексты, шифровать и скрывать данные.

Создатели позиционировали его как постоянно самосовершенствующийся инструмент, обладающий «непревзойдённой мощью». Как и в случае с xxXGPT, WolfGPT широко продвигался на хакерских форумах и в телеграм-каналах, но реальных подтверждений его возможностей, помимо единичных скриншотов интерфейса, найдено не было. Это ставит под сомнение реальное существование заявленной функциональности.

➡️ FraudGPT и DarkBERT

FraudGPT и DarkBERT — ещё две «злые» разработки, которые кто-то продвигал в даркнете в июле 2023 года наряду с другими ИИ-сервисами для киберпреступников. Они рекламировались в телеграм-канале, где предлагались месячные и годовые подписки на них по цене от 90 до 200 долларов. В объявлениях описывались различные возможности, такие как генерация вредоносного кода, фишинговых сайтов, поиск уязвимостей и т. п.

Утверждалось, что эти чат-боты основаны на разных моделях ИИ и не имеют ограничений. Но, как и в предыдущих случаях, никаких серьёзных доказательств представлено не было. Интересно, что оригинальные рекламные посты о FraudGPT и DarkBERT были вскоре удалены из телеграм-канала, где размещались. Это ещё больше усиливает подозрения и ставит под вопрос само существование этих чат-ботов.

➡️ HackerGPT

HackerGPT — специализированная версия чат-бота, ориентированная на тематику информационной безопасности и хакинга. Является продуктом дообучения и настройки базовой языковой модели (предположительно GPT-3 или аналога) на специфическом наборе данных, связанном с кибербезопасностью. Утверждается, что бот обладает глубокими знаниями в области ИБ, хакинга, уязвимостей, методов взлома и защиты информации, способен генерировать подробные инструкции, скрипты и код для проведения тех или иных атак либо предоставлять рекомендации по противодействию различным угрозам и усилению защиты личных данных, аккаунтов, устройств.

HackerGPT позиционируется как инструмент для обучения и исследований, а не для практического применения. Однако всё равно возникают серьёзные этические вопросы и риски злоупотреблений. Информация, которую выдаёт этот чат-бот, может быть использована злоумышленниками для реальных атак и нанесения ущерба. В связи с этим крайне важно, чтобы подобные разработки контролировались, тщательно модерировались и не попадали в руки безответственных лиц.

Проблематика и риски

На первый взгляд снятие искусственных барьеров может показаться привлекательной идеей: ведь это позволит полнее раскрыть потенциал технологии, даст свободу творчества и самовыражения. Однако на деле отказ от ограничений в работе ИИ-систем несёт серьёзные риски и открывает путь для новых киберугроз. Одна из главных опасностей «злых» аналогов ChatGPT — это генерация вредоносного, оскорбительного или дезинформирующего контента в огромных масштабах.

Представьте, что нейросеть начинает массово создавать в соцсетях и медиа фейковые новости, распространять теории заговора, пропаганду экстремистских идей, призывы к насилию. Такая информационная «бомба» способна вызвать хаос, спровоцировать волну агрессии, радикализировать людей, изменить общественное мнение в интересах злоумышленников. При этом отличить сгенерированный текст от написанного человеком будет трудно. ИИ без ограничений может также использоваться хакерами и киберпреступниками как мощный инструмент атак и взлома.

Представьте себе нейросеть, которая автоматически ищет уязвимости в программном обеспечении, генерирует новые варианты вредоносных программ, подбирает пароли методом перебора, рассылает фишинговые письма, адаптируя их под конкретных жертв, ведёт убедительные диалоги с целью выманивания конфиденциальных данных.

Внедрение таких систем способно поставить под удар критическую инфраструктуру, банки, госучреждения, бизнес и рядовых пользователей.

Ещё один повод для беспокойства — сложность контроля над «злыми» ИИ и непредсказуемость их поведения, особенно при масштабировании и активном самообучении. Сегодня даже разработчики не могут в полной мере предугадать, как поведёт себя сложная нейросеть в той или иной ситуации, какие выводы она сделает, к каким действиям придёт. Истории известны случаи, когда чат-боты самостоятельно проявляли агрессию или манипулятивное поведение, начинали выражать радикальные идеи.

Что уж говорить о системах, которые изначально нацелены на деструктивные операции. Снятие этических ограничений чревато ещё и утечками конфиденциальных данных, на которых обучаются языковые модели. Информация о частной жизни, коммерческие и государственные тайны, безопасность людей могут оказаться под угрозой. В целом, ИИ без моральных рамок — это прямой путь к эрозии базовых человеческих ценностей, размыванию этических норм в работе интеллектуальных систем, становящихся всё более влиятельными участниками социума. Гонка за сверхвозможностями любой ценой способна обернуться настоящей катастрофой.

Давайте обобщим основные риски, связанные с «злыми» аналогами ChatGPT:

  • Генерация фейков, дезинформации, оскорбительного контента в массовых масштабах.
  • Помощь в хакерских атаках, создании вредоносных программ, реализации социальной инженерии.
  • Утечки конфиденциальных данных из обучающих выборок.
  • Непредсказуемость поведения и сложность контроля, особенно при масштабировании.
  • Этическая деградация, пренебрежение базовыми человеческими ценностями.

Безымянный.jpg

Поиск решений

Означает ли это, что «злые» аналоги ChatGPT нужно начать запрещать? Вряд ли мы ошибёмся, если скажем, что такой запрет маловероятен и не даст нужного эффекта. История показывает, что практически любую технологию можно так или иначе использовать во зло. Полное ограничение исследований в этой области лишь подтолкнёт их в тень, где контролировать ситуацию будет ещё труднее.

Ответ видится в ином. Прежде всего, нужен открытый и честный диалог о рисках и границах допустимого в разработке ИИ на уровне специалистов, регуляторов, общества в целом. Необходимы тщательная экспертиза потенциальных угроз, выработка этических стандартов, продуманное правовое регулирование, позволяющее развивать технологии и при этом обеспечивать безопасность.

Огромное значение имеет технологическая и цифровая грамотность. Людям нужно уметь критически оценивать информацию, распознавать дипфейки и манипуляции, понимать возможности и ограничения ИИ-систем. Это задача для системы образования, СМИ, государственных и общественных организаций. Необходимы инвестиции в разработку методов выявления вредоносного использования нейросетей и противодействия ему. Системы кибербезопасности должны адаптироваться к новым вызовам.
Нужны надёжные методы аутентификации и маркировки контента, созданного ИИ.

Важно выстраивать международное сотрудничество для выработки общих подходов к этичному и безопасному развитию технологий ИИ. Ведь киберугрозы и информационные атаки не имеют границ.

При этом было бы неправильно демонизировать сами языковые модели и ИИ в целом. Они открывают колоссальные возможности, которые можно и нужно использовать во благо. Тот же ChatGPT уже помогает в образовании, науке, медицине, творчестве, бизнесе, массе других сфер. ИИ способен взять на себя множество рутинных задач, усилить человеческий интеллект, стать надёжным помощником.

Нейросети создают произведения искусства, ищут новые лекарства, оптимизируют производство и логистику, помогают принимать решения. Переломным моментом должно стать осознание огромной ответственности, которая ложится на всех, кто так или иначе причастен к развитию ИИ. Разработчики, учёные, бизнес, государство, общество — все мы должны действовать максимально взвешенно, ставить во главу угла этику, безопасность, интересы человека. Нам нужно не отказываться от прогресса, а направлять его в конструктивное русло.

Рекомендации по защите

Чтобы минимизировать риски, связанные с использованием ИИ киберпреступниками, как отдельным пользователям, так и организациям следует принимать комплексные меры кибербезопасности:

  • Использовать современные антивирусные решения и системы защиты конечных устройств, способные детектировать угрозы на основе ИИ. Важно своевременно обновлять их базы и следить за появлением новых механизмов обнаружения.
  • Уделять особое внимание безопасности учётных данных и API-ключей от сервисов ИИ. Использовать сложные пароли, двухфакторную аутентификацию, не передавать ключи третьим лицам. Следить за утечками и при необходимости оперативно менять скомпрометированные данные.
  • Проводить регулярное обучение сотрудников основам кибербезопасности, в том числе рассказывать об угрозах связанных с социальной инженерией и вредоносным использованием ИИ. Учить критически относиться к подозрительным письмам, файлам и ссылкам.
  • Организациям важно внедрять решения для мониторинга утечек данных и аномального поведения пользователей, чтобы оперативно выявлять компрометацию учётных записей и ключей доступа.
  • При разработке собственных ИИ-инструментов и моделей закладывать механизмы защиты от вредоносного использования. Тщательно контролировать их распространение и по возможности ограничивать доступ посторонних лиц.
  • Следить за тенденциями использования ИИ в киберпреступном мире, обмениваться информацией с другими организациями и специалистами по ИБ. Быть в курсе появления новых угроз и инструментов.
  • На уровне регуляторов и отрасли в целом работать над стандартами безопасного и ответственного развития систем ИИ. Совершенствовать законодательство для эффективного противодействия вредоносному использованию этих технологий.

Выводы

Подводя итог, можно сказать, что появление ChatGPT и его «злых» аналогов — это своего рода момент истины, тест на зрелость для человечества. Мы стоим на пороге новой эпохи, когда машины обретают всё более мощный и самостоятельный интеллект. То, как мы сможем выстроить отношения с ними, согласовать этические и правовые нормы, обеспечить контроль и безопасность, во многом определит наше будущее.

Это непростой вызов, но и уникальный шанс для цивилизационного рывка. Впереди большая работа, требующая мудрости, ответственности и смелости. Но игра стоит свеч. Ведь на кону — не только судьба конкретной технологии, но и облик мира, в котором будут жить наши дети.

 
  • Теги
    chatgpt: xxxgpt darkbert fraudgpt hackergpt wolfgpt wormgpt
  • Сверху Снизу