В Госдуме начали разработку закона о маркировке контента, созданного с помощью искусственного интеллекта.
Как сообщил член комитета по информационной политике Антон Немкин, без контроля распространения такой информации развитие ИИ может нести опасность.
«Если рассматривать отдаленную перспективу, то развитие ИИ-сервисов без необходимого контроля несет опасность появления огромных массивов не только никем не проверенных текстов, но и даже полностью выдуманных фактов, цифр и данных».
Маркировка может осуществляться при помощи графических или водяных знаков. Она должна выглядеть ненавязчиво, но при этом быть заметной читателю. Если закон примут, в будущем российские ИИ-сервисы обяжут автоматически маркировать сгенерированные тексты. Так что задуматься о технологии маркировки крупным компаниям стоит уже сейчас.
Какая экспертиза позволит распознать степень участия нейросети и человека в одном тексте, пока неясно. Однако Немкин предложил наделить новыми полномочиями Роскомнадзор: ведомство могло бы заниматься выявлением деструктивного контента, сгенерированного ИИ.
— Например, недобросовестные производители могут генерировать ИИ-ролики, рекламируя какой-либо товар. С помощью маркировки пользователи будут понимать, что возможности продукта в рекламе могут отличаться от действительности.
— По большому счету, такой принцип действует и при выявлении, например, мошеннических ресурсов: автоматические системы регуляторов прочесывают интернет, а в особых случаях проверку проводят специалисты.
Еще один похожий пример — российский опыт по маркировке интернет-рекламы, не имеющий аналогов в мире. Участники рынка уже два года маркируют весь контент, создаваемый и публикуемый в интернете в рекламных целях.
— Здесь реализована как организационная, так и техническая платформа для взаимодействия всех участников, полностью цифровизованы процессы, связанные с маркировкой рекламы, а Роскомнадзор успешно справляется с административной функцией. Все условия уже есть и для маркировки информации, созданной с использованием ИИ. Однако прежде всего необходимо определить какой тип контента, созданного с помощью ИИ, будет подлежать маркировке.
По этой причине, сначала необходимо описать и типизировать этот контент. Например, ответы различных чатов с технологией генеративных сетей (GPT) в интересах одного конкретного гражданина, возможно, и не требуется маркировать.
— Но если же создаваемый с использованием ИИ контент (видео, аудио, тексты) предназначается для массового распространения через интернет, то здесь маркировка вполне уместна. Она позволит урегулировать этические вопросы тиражирования информации, в том числе с использованием визуальных образов или голосов известных личностей, лидеров мнений, и сформирует ожидания у аудитории, для которой предназначается контент.
Главную пользу от нововведения, по его словам, получат именно пользователи сети — они будут знать, какие материалы созданы с помощью ИИ, и относиться к ним соответственно.
— Кроме того, введение обязательной маркировки сможет повлиять и на уровень мошенничества и «психологических операций» с дипфейками.
Понятно, что хакеры высокой квалификации пользуются собственными ИИ-инструментами, однако если общедоступные ИИ-сервисы будут всегда маркировать свой контент, то различные хактивисты и хулиганы не смогут выдавать фейковые новости за настоящие и влиять на общество
Россия — не первая страна, которая инициирует законодательное регулирование ИИ-контента. Маркировка в виде водяных знаков для аудио и видеоконтента уже существует в Китае, странах Евросоюза и
— Но в рамках этого важно внимательно проработать, кто, как и в каких случаях будет маркировать контент. К примеру, это будет касаться только контента, распространяемого СМИ, или же используемого в личных сообщениях. Кто должен нести ответственность — тот, кто генерирует контент, или кто распространяет его. Все эти вопросы нужно аккуратно проработать, иначе данная инициатива как минимум «не взлетит», а как максимум — затормозит развитие технологий искусственного интеллекта в стране.
Как сообщил член комитета по информационной политике Антон Немкин, без контроля распространения такой информации развитие ИИ может нести опасность.
Разработка закона
Без контроля распространения информации развитие искусственного интеллекта (ИИ) в России может быть опасным.«Если рассматривать отдаленную перспективу, то развитие ИИ-сервисов без необходимого контроля несет опасность появления огромных массивов не только никем не проверенных текстов, но и даже полностью выдуманных фактов, цифр и данных».
Маркировка может осуществляться при помощи графических или водяных знаков. Она должна выглядеть ненавязчиво, но при этом быть заметной читателю. Если закон примут, в будущем российские ИИ-сервисы обяжут автоматически маркировать сгенерированные тексты. Так что задуматься о технологии маркировки крупным компаниям стоит уже сейчас.
Какая экспертиза позволит распознать степень участия нейросети и человека в одном тексте, пока неясно. Однако Немкин предложил наделить новыми полномочиями Роскомнадзор: ведомство могло бы заниматься выявлением деструктивного контента, сгенерированного ИИ.
Необходимость закона
Маркировка ИИ-контента имеет две главные цели:- Во-первых, любому ИИ-сервису на данном этапе развития свойственны так называемые галлюцинации, то есть нейросети могут выдавать ложную информацию. Соответствующая маркировка должна дать понять пользователям, что данные сгенерированы искусственным интеллектом и их необходимо перепроверять.
- Во-вторых, возможности ИИ сегодня значительно выросли. Отличить видео, фото, не говоря уже про текст, сгенерированные нейросетью от созданных человеком практически нереально. И это дает широкий простор для обмана пользователей, манипуляции их мнением и так далее.
— Например, недобросовестные производители могут генерировать ИИ-ролики, рекламируя какой-либо товар. С помощью маркировки пользователи будут понимать, что возможности продукта в рекламе могут отличаться от действительности.
Механизм маркировки
Как именно будет исполняться новый закон в случае принятия, пока неизвестно. Вероятно, будет реализовано два основных механизма маркировки и контроля ИИ-контента. Первый — обязательство всех ИИ-сервисов автоматически маркировать контент, а второй — «ручной» контроль силами специалистов Роскомнадзора.— По большому счету, такой принцип действует и при выявлении, например, мошеннических ресурсов: автоматические системы регуляторов прочесывают интернет, а в особых случаях проверку проводят специалисты.
Еще один похожий пример — российский опыт по маркировке интернет-рекламы, не имеющий аналогов в мире. Участники рынка уже два года маркируют весь контент, создаваемый и публикуемый в интернете в рекламных целях.
— Здесь реализована как организационная, так и техническая платформа для взаимодействия всех участников, полностью цифровизованы процессы, связанные с маркировкой рекламы, а Роскомнадзор успешно справляется с административной функцией. Все условия уже есть и для маркировки информации, созданной с использованием ИИ. Однако прежде всего необходимо определить какой тип контента, созданного с помощью ИИ, будет подлежать маркировке.
По этой причине, сначала необходимо описать и типизировать этот контент. Например, ответы различных чатов с технологией генеративных сетей (GPT) в интересах одного конкретного гражданина, возможно, и не требуется маркировать.
— Но если же создаваемый с использованием ИИ контент (видео, аудио, тексты) предназначается для массового распространения через интернет, то здесь маркировка вполне уместна. Она позволит урегулировать этические вопросы тиражирования информации, в том числе с использованием визуальных образов или голосов известных личностей, лидеров мнений, и сформирует ожидания у аудитории, для которой предназначается контент.
Важное нововведение
Необходимость в законе о маркировке контента, созданного нейросетями, назрела давно. Главная опасность его отсутствия заключается в том, что неконтролируемое распространение любого контента, не только созданного ИИ, может дезинформировать людей и дестабилизировать общество.— Сейчас ИИ-сервисы доступны практически каждому, и при желании хактивисты или просто хулиганы могут распространять фейковый контент, который будет влиять на социальную обстановку. Кроме того, нейросети совершают фактические ошибки могут вводить пользователей в заблуждение, нести негативный эффект, например, панику.
Главную пользу от нововведения, по его словам, получат именно пользователи сети — они будут знать, какие материалы созданы с помощью ИИ, и относиться к ним соответственно.
— Кроме того, введение обязательной маркировки сможет повлиять и на уровень мошенничества и «психологических операций» с дипфейками.
Понятно, что хакеры высокой квалификации пользуются собственными ИИ-инструментами, однако если общедоступные ИИ-сервисы будут всегда маркировать свой контент, то различные хактивисты и хулиганы не смогут выдавать фейковые новости за настоящие и влиять на общество
Россия — не первая страна, которая инициирует законодательное регулирование ИИ-контента. Маркировка в виде водяных знаков для аудио и видеоконтента уже существует в Китае, странах Евросоюза и
Для просмотра ссылки необходимо нажать
Вход или Регистрация
.— Но в рамках этого важно внимательно проработать, кто, как и в каких случаях будет маркировать контент. К примеру, это будет касаться только контента, распространяемого СМИ, или же используемого в личных сообщениях. Кто должен нести ответственность — тот, кто генерирует контент, или кто распространяет его. Все эти вопросы нужно аккуратно проработать, иначе данная инициатива как минимум «не взлетит», а как максимум — затормозит развитие технологий искусственного интеллекта в стране.
Для просмотра ссылки необходимо нажать
Вход или Регистрация