ИИ научился взламывать без человека - большие языковые модели проводят кибератаки самостоятельно

BOOX

Стаж на ФС с 2012 года
Команда форума
Служба безопасности
Private Club
Регистрация
23/1/18
Сообщения
35.268
Репутация
13.280
Реакции
66.290
USD
0
Научная фантастика больше не фантастика.

Исследователи из Университета Карнеги-Меллона совместно с компанией Anthropic показали: искусственный интеллект на базе языковых моделей (LLM) способен самостоятельно планировать и осуществлять кибератаки.

ИИ научился взламывать без человека - большие языковые модели проводят кибератаки самостоятельно


Без подсказок, без ручного ввода команд — всё полностью автономно.

Эксперимент поставил LLM в роль киберзлоумышленника. Модель проанализировала структуру корпоративной сети, нашла уязвимости и провела поэтапную атаку — с проникновением, разведкой и эксплуатацией. И всё это — без участия человека. ИИ не просто исполнил задачу, а сам принял решения в реальном времени, демонстрируя высокий уровень «осознанности».

Возможности — пугающие и одновременно многообещающие. Такой ИИ легко может быть использован злоумышленниками для массовых, быстро масштабируемых атак. Но та же технология способна стать оружием обороны: LLM можно обучить находить слабые места в системах до того, как это сделают настоящие хакеры.

Открытия были представлены на официальной странице исследовательской группы и в препринте на arXiv. Этот прорыв — тревожный сигнал для специалистов по безопасности: в эпоху автономных ИИ пора менять сами принципы киберзащиты.


 
  • Теги
    llm взлом корпоративной сети ии
  • Назад
    Сверху Снизу