Научная фантастика больше не фантастика.
Исследователи из Университета Карнеги-Меллона совместно с компанией Anthropic показали: искусственный интеллект на базе языковых моделей (LLM) способен самостоятельно планировать и осуществлять кибератаки.
Без подсказок, без ручного ввода команд — всё полностью автономно.
Эксперимент поставил LLM в роль киберзлоумышленника. Модель проанализировала структуру корпоративной сети, нашла уязвимости и провела поэтапную атаку — с проникновением, разведкой и эксплуатацией. И всё это — без участия человека. ИИ не просто исполнил задачу, а сам принял решения в реальном времени, демонстрируя высокий уровень «осознанности».
Возможности — пугающие и одновременно многообещающие. Такой ИИ легко может быть использован злоумышленниками для массовых, быстро масштабируемых атак. Но та же технология способна стать оружием обороны: LLM можно обучить находить слабые места в системах до того, как это сделают настоящие хакеры.
Открытия были представлены на официальной странице исследовательской группы и в препринте на arXiv. Этот прорыв — тревожный сигнал для специалистов по безопасности: в эпоху автономных ИИ пора менять сами принципы киберзащиты.
Исследователи из Университета Карнеги-Меллона совместно с компанией Anthropic показали: искусственный интеллект на базе языковых моделей (LLM) способен самостоятельно планировать и осуществлять кибератаки.

Без подсказок, без ручного ввода команд — всё полностью автономно.
Эксперимент поставил LLM в роль киберзлоумышленника. Модель проанализировала структуру корпоративной сети, нашла уязвимости и провела поэтапную атаку — с проникновением, разведкой и эксплуатацией. И всё это — без участия человека. ИИ не просто исполнил задачу, а сам принял решения в реальном времени, демонстрируя высокий уровень «осознанности».
Возможности — пугающие и одновременно многообещающие. Такой ИИ легко может быть использован злоумышленниками для массовых, быстро масштабируемых атак. Но та же технология способна стать оружием обороны: LLM можно обучить находить слабые места в системах до того, как это сделают настоящие хакеры.
Открытия были представлены на официальной странице исследовательской группы и в препринте на arXiv. Этот прорыв — тревожный сигнал для специалистов по безопасности: в эпоху автономных ИИ пора менять сами принципы киберзащиты.
Для просмотра ссылки необходимо нажать
Вход или Регистрация