В начале 2023 года неизвестные злоумышленники взломали внутренние системы обмена сообщениями OpenAl и получили доступ к переписке об ИИ-технологиях.
Поскольку данные клиентов компании не пострадали, предавать огласке инцидент не стали. Как стало известно The New York Times, взломщики лишь могли узнать какие-то детали проектов, которые сотрудники в рабочем порядке обсуждали на онлайн-форуме. Добраться до хранилищ кодов и платформ разработки непрошеным гостям не удалось.
Украсть какую-либо информацию о клиентах и партнерах компании авторы атаки тоже не смогли, и потому было решено не разглашать факт атаки. Руководство лишь поставило в известность персонал и совет директоров.
Топ-менеджеры сочли, что автор атаки — частное лицо, в действиях которого не просматриваются связи с каким-либо иностранным правительством. Заключив, что киберинцидент не составляет угрозу национальной безопасности, разработчик ChatGPT не стал информировать о нем правоохранительные органы. Практика показывает, что ИИ может принести не только пользу, но и вред — зависит от того, в каких руках окажутся столь мощные инструменты.
По этой причине некоторые профильные разработчики, в том числе OpenAl, начали закрывать доступ к своим технологическим операциям и ужесточать контроль, чтобы снизить риск утечки.
Поскольку данные клиентов компании не пострадали, предавать огласке инцидент не стали. Как стало известно The New York Times, взломщики лишь могли узнать какие-то детали проектов, которые сотрудники в рабочем порядке обсуждали на онлайн-форуме. Добраться до хранилищ кодов и платформ разработки непрошеным гостям не удалось.
Украсть какую-либо информацию о клиентах и партнерах компании авторы атаки тоже не смогли, и потому было решено не разглашать факт атаки. Руководство лишь поставило в известность персонал и совет директоров.
Топ-менеджеры сочли, что автор атаки — частное лицо, в действиях которого не просматриваются связи с каким-либо иностранным правительством. Заключив, что киберинцидент не составляет угрозу национальной безопасности, разработчик ChatGPT не стал информировать о нем правоохранительные органы. Практика показывает, что ИИ может принести не только пользу, но и вред — зависит от того, в каких руках окажутся столь мощные инструменты.
По этой причине некоторые профильные разработчики, в том числе OpenAl, начали закрывать доступ к своим технологическим операциям и ужесточать контроль, чтобы снизить риск утечки.
Для просмотра ссылки необходимо нажать
Вход или Регистрация