Сказать, что нейросети меняют мир, — это ничего не сказать.
Создатели контента, владельцы компаний, маркетологи, SEO- и SMM-специалисты — многие используют искусственный интеллект при решении ежедневных задач, не говоря о простых пользователях, для которых ChatGPT, Kandinsky, Midjourney и другие генеративные нейросети превратились в источник развлечений и творчества.
Но кому принадлежит контент, создаваемый ИИ? Существуют ли риски для специалистов, которые используют в своей работе нейросети? О законности сгенерированного контента рассуждают эксперты.
Нейросети существуют не первый год, даже не первое десятилетие. Они с нами уже давно, просто OpenAI стала первой компанией, которой удалось показать их способности в прикладном русле. Буквально любой пользователь получил возможность что-нибудь сгенерировать — будь то текст (ChatGPT, YandexGPT), изображение (Dall-E, Midjourney, Stable Diffusion), видео (Synthesia) или музыка (Udio, Beatoven.ai).
Такие возможности просто не могли пройти мимо бизнеса. Нейросети, как оказалось, сильно упрощают работу, делают сотрудников продуктивнее, позволяют экономить на персонале и повышают удовлетворение клиентов от взаимодействия с компанией.
Платформа HubSpot выпустила большое исследование «The State of AI in Marketing» («Состояние ИИ в маркетинге»), которое показало, что в 2023 году 62% опрошенных директоров инвестируют в нейросети, 68% считают, что внедрение ИИ-автоматизации в процессы поспособствует росту бизнеса, а 71% уже внедривших отмечают рост ROI — окупаемости инвестиций. Рады и простые сотрудники, с которых нейросети снимают часть рутинной работы, позволяя сконцентрироваться на креативной части труда.
В России статистика «Нейростата» от Яндекса тоже показывает интересные результаты — примерно половина активных пользователей интернета как минимум в курсе существования нейросетей, а треть ими пользуются.
Словом, нейросети — это интересно, перспективно, окупаемо. Остается вопрос — кому принадлежит сгенерированный искусственным интеллектом контент, и не окажется ли бизнес в уязвимой позиции?
В результате нейросеть генерировала изображения, имеющие определенное сходство со стилем Маккернан — нимфоподобные девушки, кислотные цвета, стиль ар-нуво. «В какой-то момент, — рассказала художница журналисту The New Yorker Кайлу Чайке, — это [сгенерированные изображения] стало выглядеть очень точным, немного нарушая авторские права. Я вижу свою руку в этом материале, вижу, как мои работы анализировались и смешивались с чужими».
Иллюстрации Келли Маккернан
В 2023 году Маккернан вместе с двумя другими художницами, Сарой Андерсен и Карлой Ортиз, подала в суд на разработчиков нейросетей Midjourney, Stable Diffusion и DreamUp. Претензии у художниц были следующие: они не давали согласия на включение их работ в базу данных для обучения моделей; они не получали компенсации за свое участие, хотя компании взимали плату с клиентов за использование инструментов; их влияние не учитывалось при генерации изображений. Дело коснулось работ, защищенных авторским правом; у всех троих художниц такие были.
Это дело стало самым крупным в отношении сгенерированного нейросетями контента. Уже 30 октября федеральный судья отклонил почти все претензии художниц. Отказ был связан с отсутствием официальной регистрации авторских прав на работы. Те из изображений, которые были зарегистрированы, пошли в дело, однако и тут возникла проблема — художницам нужно было четко указать, какие из зарегистрированных работ были использованы в базах данных.
Дело Маккернан, Андерсен и Ортиз — не первый случай, когда создатели оригинального контента обращаются в суд на разработчиков нейросетей. Иск в 2022 году получили Microsoft, GitHub и OpenAI — разработчики ассистента программиста Copilot. Используя нейросеть, ассистент генерирует код: дописывает сниппеты или создает их с нуля. При этом образцы он берет из открытых источников, включая, например, Stack Overflow — форум, на котором любой программист может задать вопрос и получить ответ, в том числе с примерами.
Некоторые проекты программисты размещали в открытом доступе с условием обязательно указывать авторов кода при его использовании. Понятно, что при копировании нейросеть не указывала авторов оригинала, что и стало поводом для иска. На январь 2024 года Microsoft, GitHub и OpenAI добились отклонения некоторых исков, но не всех, и истцам было разрешено подать измененную жалобу. Подробной информации по этому делу пока нет.
В суд на OpenAI подавали и авторы литературных произведений. В 2023 году Гильдия авторов составила иск, выступив против использования их интеллектуального труда при обучении нейросети. Поводом послужила информация о том, что в датасете — облаке данных, использованных при обучении системы, — были не только открытые источники, но и порядка 2,5 тысяч защищенных авторским правом книг. В списке истцов оказались в том числе очень именитые авторы — Джордж Мартин и Сьюзен Коллинз. Правда, и их иск суд в итоге отклонил.
Словом, статус сгенерированного контента за рубежом пока не определен. Можно ли считать его плагиатом? Вероятно, нет, потому что условная картинка, созданная ИИ, хоть и имеет сходство с тем изображением, на котором система была обучена, но им все-таки не является. По крайней мере, иски создатели контента пока не выигрывают, а если и выигрывают, то скорее в области неправомерного использования защищенных авторским правом произведений. В России прецедентов и вовсе пока еще нет.
В США, например, таковым объектом может быть только «результат оригинального и творческого авторства человека», соответственно, произведение, созданное без этого вклада, не может быть защищено авторским правом. В США произведение, созданное нейросетью, скорее всего, даже не зарегистрируют. В России объектом авторского права могут быть в том числе компьютерные программы, а также производные и составные произведения — это разного рода сборники рассказов, аранжировки, экранизации и другое. При этом по закону объект авторского права, некий контент, должен соответствовать трем условиям: существовать (это соблюдается), иметь творческий характер (предположим) и быть созданным человеком (вот тут начинаются нюансы).
В Постановлении Пленума Верховного Суда РФ от 23 марта 2019 № 10 отмечено, что объектом авторского права не может быть произведение, которое было создано при помощи технических средств в отсутствие творческого характера деятельности человека. Словом, сгенерированный нейросетью контент и в России, скорее всего, как объект авторского права не зарегистрируют.
При этом уже в 2024 году возникла ситуация, когда дипфейк — сгенерированное изображение реально существующего человека — признали объектом авторского права. Судились компании «Рефейс технолоджис» и «Бизнес-аналитика», где первая обвиняла последнюю в неправомерном использовании видеоролика с созданным по технологии дипфейк Киану Ривзом. «Бизнес-аналитика» подчеркивала, что нейросеть не может создать объект авторского права, но довод суда был основан на том, что дипфейк сгенерирован лишь частично, и в нем все-таки присутствует творческий вклад человека — сам видеоролик, на который потом наложили изображение голливудского актера.
С одной стороны, условный Midjourney — просто инструмент, с помощью которого создается картинка. С тем же успехом пользователь мог использовать продукты Adobe или масляные краски. С другой стороны, в публичной оферте программы может быть указано что угодно.
Например, у Midjourney в публичной оферте сказано, что все произведенные на платформе изображения принадлежат тем, кто их создал, с некоторыми исключениями: «Если вы являетесь компанией или сотрудником компании с доходом более 1 000 000 долларов США в год, вы должны быть подписаны на тарифный план «Pro» или «Mega», чтобы владеть вашими активами [изображениями]».
Публичная оферте Midjourney
Kandinsky сразу уточняет, что правообладателем сгенерированных изображений является владелец нейросети Сбер, но использовать картинки можно как угодно, главное — указывать, с помощью чего они были созданы.
Иными словами, для того, чтобы коммерчески использовать картинки, быть их правообладателем, большая компания должна быть подписана на дорогостоящие платные тарифы. В таком случае проблем нет.
И подобные особенности есть у всех нейросетей. Иными словами — коммерчески использовать сгенерированный контент можно, но перед этим крайне рекомендуется прочитать публичную оферту.
Другой известный кейс — Николай Иронов от студии Артемия Лебедева. На протяжении года заказы для клиентов выполняла нейросеть, созданная сотрудниками студии. По их словам, искусственный интеллект выполнил порядка 20 коммерческих заказов — и никто ничего не заподозрил.
Николай Иронов от студии Артемия Лебедева
Но тут, как и в случае со Сбером, нейросеть принадлежит студии Артемия Лебедева, соответственно, следовать публичной оферте у компании нет необходимости. То есть один из способов избежать практически любых легальных проблем — создать свой собственный искусственный интеллект. Однако, по понятным причинам, вариант это не слишком удобный.
Нейросети в маркетинговой кампании использовал бренд Coca-Cola. Для этого он вступил в коллаб с OpenAI и выпустил лимитированный напиток Coca-Cola Y3000 Zero Sugar в сгенерированной упаковке.
Маркетинговая компания Coca-Cola и OpenAI
Впрочем, и тут есть нюанс — официальное сотрудничество с OpenAI.
Нейроквест для социальной сети ВКонтакте создала студия Чижова. По словам разработчиков, сценарий для игры писал ChatGPT, а дорабатывали уже люди. Проект должен был продвинуть как соцсеть, так и доставку суши и роллов «Японори», которая выступила заказчиком. Причем черновой вариант маскота для «Японори» создавался в Midjourney.
Возможно, в данной ситуации любых вопросов разработчики избежали просто потому, что доработкой проекта занимались все-таки люди. Люди правили сценарий, и люди дорисовывали маскота. Такой вариант взаимодействия с нейросетью вполне возможен и не должен вызвать никаких кар со стороны правообладателей — то есть создателей нейросетей.
В России существует «
Кодекс этики в сфере ИИ
Дискуссии о создании связанных с ИИ законов уже ведутся. Например, в мае 2024 года депутат Ярослав Нилов предложил ввести уголовное наказание за использование дипфейков. Поправкой о нейросетях народный избранник предложил дополнить статьи о клевете, краже, мошенничестве, вымогательстве и причинении имущественного ущерба путем обмана или злоупотребления доверием.
В марте 2024 года в Евросоюзе был принят закон об искусственном интеллекте, который ограничивает распространение опасных систем, способных манипулировать сознанием или иными способами угрожать жизни и здоровью людей. В перспективе его могут дополнить ограничениями для существующих нейросетей — например, запретить разработчикам использовать при обучении контент, защищенный авторским правом. Скорее всего, принятый в Евросоюзе регламент станет повсеместным.
Интересный прецедент произошел в США, где сценаристы бастовали со 2 мая по 27 сентября 2023 года, требуя ужесточить регулирование ИИ. Результатом забастовки, помимо стагнации голливудского кинематографа, стало изменение правил использования ИИ при написании рукописей — теперь нейросеть не может создать сценарий, не может переписать уже имеющийся, а если и создаст, то исходником он считаться уже не будет.
Кроме того, в США крупнейшие игроки на рынке ИИ, такие как Google, OpenAI, Microsoft и другие, согласились добровольно принять на себя обязательства по управлению связанными с нейросетями рисками.
Можно сказать наверняка — законотворческая база будет расширяться, причем во всех странах. Пока же ИИ остается в серой зоне.
Остается вопрос этики, но этическую проблему каждый разрешает для себя сам. Даже в США с прецедентным правом суды выносят решения в пользу разработчиков нейросетей, и тот датасет, который они собирают для обучения своих моделей, остается на их совести. Впрочем, глядя на то, по какому пути все движется, защищенные авторским правом работы, скорее всего, в ближайшем будущем окончательно исчезнут из баз данных моделей.
Создатели контента, владельцы компаний, маркетологи, SEO- и SMM-специалисты — многие используют искусственный интеллект при решении ежедневных задач, не говоря о простых пользователях, для которых ChatGPT, Kandinsky, Midjourney и другие генеративные нейросети превратились в источник развлечений и творчества.
Но кому принадлежит контент, создаваемый ИИ? Существуют ли риски для специалистов, которые используют в своей работе нейросети? О законности сгенерированного контента рассуждают эксперты.
Генеративные нейросети и где они обитают
Нейросеть — или нейронная сеть — это компьютерная программа, спроектированная таким образом, чтобы имитировать человеческое мышление. Говоря «нейросети», мы сегодня в первую очередь подразумеваем генеративные модели, такие как GPT, от английского Generative Pre-trained Transformer или «генеративный преобученный трансформер». GPT как концепция был разработан компанией OpenAI, в первую очередь известной чат-ботом ChatGPT. Модель способна генерировать текстовую информацию на уровне человека — с ней действительно можно общаться почти как с равным.Нейросети существуют не первый год, даже не первое десятилетие. Они с нами уже давно, просто OpenAI стала первой компанией, которой удалось показать их способности в прикладном русле. Буквально любой пользователь получил возможность что-нибудь сгенерировать — будь то текст (ChatGPT, YandexGPT), изображение (Dall-E, Midjourney, Stable Diffusion), видео (Synthesia) или музыка (Udio, Beatoven.ai).
Современные нейросети от любой другой компьютерной программы отличает их способность к обучению. Они учатся на терабайтах загружаемых в них данных — статей, художественной литературы, ответов на форумах, видео, картинок, на всем том, что хранится во всемирной паутине. Потом на основе этой информации они генерируют контент.
Такие возможности просто не могли пройти мимо бизнеса. Нейросети, как оказалось, сильно упрощают работу, делают сотрудников продуктивнее, позволяют экономить на персонале и повышают удовлетворение клиентов от взаимодействия с компанией.
Платформа HubSpot выпустила большое исследование «The State of AI in Marketing» («Состояние ИИ в маркетинге»), которое показало, что в 2023 году 62% опрошенных директоров инвестируют в нейросети, 68% считают, что внедрение ИИ-автоматизации в процессы поспособствует росту бизнеса, а 71% уже внедривших отмечают рост ROI — окупаемости инвестиций. Рады и простые сотрудники, с которых нейросети снимают часть рутинной работы, позволяя сконцентрироваться на креативной части труда.
В России статистика «Нейростата» от Яндекса тоже показывает интересные результаты — примерно половина активных пользователей интернета как минимум в курсе существования нейросетей, а треть ими пользуются.
Словом, нейросети — это интересно, перспективно, окупаемо. Остается вопрос — кому принадлежит сгенерированный искусственным интеллектом контент, и не окажется ли бизнес в уязвимой позиции?
Легальные проблемы
В 2022 году американская художница Келли Маккернан обнаружила, что ее работы используются для создания картинок в нейросетях. Пользователи буквально отправляли в Midjourney запрос, где среди прочих ключевых слов, таких как «пейзаж», «романтичный», «закат», «русалка» и другие, было ее имя.В результате нейросеть генерировала изображения, имеющие определенное сходство со стилем Маккернан — нимфоподобные девушки, кислотные цвета, стиль ар-нуво. «В какой-то момент, — рассказала художница журналисту The New Yorker Кайлу Чайке, — это [сгенерированные изображения] стало выглядеть очень точным, немного нарушая авторские права. Я вижу свою руку в этом материале, вижу, как мои работы анализировались и смешивались с чужими».
Для просмотра ссылки необходимо нажать
Вход или Регистрация
Иллюстрации Келли Маккернан
В 2023 году Маккернан вместе с двумя другими художницами, Сарой Андерсен и Карлой Ортиз, подала в суд на разработчиков нейросетей Midjourney, Stable Diffusion и DreamUp. Претензии у художниц были следующие: они не давали согласия на включение их работ в базу данных для обучения моделей; они не получали компенсации за свое участие, хотя компании взимали плату с клиентов за использование инструментов; их влияние не учитывалось при генерации изображений. Дело коснулось работ, защищенных авторским правом; у всех троих художниц такие были.
Это дело стало самым крупным в отношении сгенерированного нейросетями контента. Уже 30 октября федеральный судья отклонил почти все претензии художниц. Отказ был связан с отсутствием официальной регистрации авторских прав на работы. Те из изображений, которые были зарегистрированы, пошли в дело, однако и тут возникла проблема — художницам нужно было четко указать, какие из зарегистрированных работ были использованы в базах данных.
Дело в том, что информация, на которой обучается нейросеть, не берется из ниоткуда. Несмотря на то, что использованные картинки свободно распространялись по сети, они были кем-то созданы, и вполне вероятно, что у создателей имелись авторские права на работу. То же самое — с текстами. Если нейросеть скопирует отрывок из художественной книги или статьи в СМИ, у автора оригинала будут основания подать в суд или на разработчика нейросети, или на того, кто впоследствии использовал сгенерированный контент.
Дело Маккернан, Андерсен и Ортиз — не первый случай, когда создатели оригинального контента обращаются в суд на разработчиков нейросетей. Иск в 2022 году получили Microsoft, GitHub и OpenAI — разработчики ассистента программиста Copilot. Используя нейросеть, ассистент генерирует код: дописывает сниппеты или создает их с нуля. При этом образцы он берет из открытых источников, включая, например, Stack Overflow — форум, на котором любой программист может задать вопрос и получить ответ, в том числе с примерами.
Некоторые проекты программисты размещали в открытом доступе с условием обязательно указывать авторов кода при его использовании. Понятно, что при копировании нейросеть не указывала авторов оригинала, что и стало поводом для иска. На январь 2024 года Microsoft, GitHub и OpenAI добились отклонения некоторых исков, но не всех, и истцам было разрешено подать измененную жалобу. Подробной информации по этому делу пока нет.
В суд на OpenAI подавали и авторы литературных произведений. В 2023 году Гильдия авторов составила иск, выступив против использования их интеллектуального труда при обучении нейросети. Поводом послужила информация о том, что в датасете — облаке данных, использованных при обучении системы, — были не только открытые источники, но и порядка 2,5 тысяч защищенных авторским правом книг. В списке истцов оказались в том числе очень именитые авторы — Джордж Мартин и Сьюзен Коллинз. Правда, и их иск суд в итоге отклонил.
Словом, статус сгенерированного контента за рубежом пока не определен. Можно ли считать его плагиатом? Вероятно, нет, потому что условная картинка, созданная ИИ, хоть и имеет сходство с тем изображением, на котором система была обучена, но им все-таки не является. По крайней мере, иски создатели контента пока не выигрывают, а если и выигрывают, то скорее в области неправомерного использования защищенных авторским правом произведений. В России прецедентов и вовсе пока еще нет.
А автор кто
В глазах закона нейросеть не является автором контента по одной простой причине — автором может быть только человек. Искусственный интеллект, насколько бы разумным он ни был, не является субъектом авторского права, и он не может создать объект авторского права.В США, например, таковым объектом может быть только «результат оригинального и творческого авторства человека», соответственно, произведение, созданное без этого вклада, не может быть защищено авторским правом. В США произведение, созданное нейросетью, скорее всего, даже не зарегистрируют. В России объектом авторского права могут быть в том числе компьютерные программы, а также производные и составные произведения — это разного рода сборники рассказов, аранжировки, экранизации и другое. При этом по закону объект авторского права, некий контент, должен соответствовать трем условиям: существовать (это соблюдается), иметь творческий характер (предположим) и быть созданным человеком (вот тут начинаются нюансы).
В Постановлении Пленума Верховного Суда РФ от 23 марта 2019 № 10 отмечено, что объектом авторского права не может быть произведение, которое было создано при помощи технических средств в отсутствие творческого характера деятельности человека. Словом, сгенерированный нейросетью контент и в России, скорее всего, как объект авторского права не зарегистрируют.
При этом уже в 2024 году возникла ситуация, когда дипфейк — сгенерированное изображение реально существующего человека — признали объектом авторского права. Судились компании «Рефейс технолоджис» и «Бизнес-аналитика», где первая обвиняла последнюю в неправомерном использовании видеоролика с созданным по технологии дипфейк Киану Ривзом. «Бизнес-аналитика» подчеркивала, что нейросеть не может создать объект авторского права, но довод суда был основан на том, что дипфейк сгенерирован лишь частично, и в нем все-таки присутствует творческий вклад человека — сам видеоролик, на который потом наложили изображение голливудского актера.
У любого контента, впрочем, может быть правообладатель — это не то же самое, что автор. И здесь начинается самое интересное.
С одной стороны, условный Midjourney — просто инструмент, с помощью которого создается картинка. С тем же успехом пользователь мог использовать продукты Adobe или масляные краски. С другой стороны, в публичной оферте программы может быть указано что угодно.
Например, у Midjourney в публичной оферте сказано, что все произведенные на платформе изображения принадлежат тем, кто их создал, с некоторыми исключениями: «Если вы являетесь компанией или сотрудником компании с доходом более 1 000 000 долларов США в год, вы должны быть подписаны на тарифный план «Pro» или «Mega», чтобы владеть вашими активами [изображениями]».
Для просмотра ссылки необходимо нажать
Вход или Регистрация
Публичная оферте Midjourney
Kandinsky сразу уточняет, что правообладателем сгенерированных изображений является владелец нейросети Сбер, но использовать картинки можно как угодно, главное — указывать, с помощью чего они были созданы.
Иными словами, для того, чтобы коммерчески использовать картинки, быть их правообладателем, большая компания должна быть подписана на дорогостоящие платные тарифы. В таком случае проблем нет.
И подобные особенности есть у всех нейросетей. Иными словами — коммерчески использовать сгенерированный контент можно, но перед этим крайне рекомендуется прочитать публичную оферту.
Кто использует нейросети и как
Кейсы использования компаниями сгенерированных изображений есть, и многие из вас могут их увидеть — достаточно зайти в приложение Сбера. Однако у Сбера есть собственный Kandinsky, поэтому они избавлены от любых связанных с генерацией легальных проблем.Другой известный кейс — Николай Иронов от студии Артемия Лебедева. На протяжении года заказы для клиентов выполняла нейросеть, созданная сотрудниками студии. По их словам, искусственный интеллект выполнил порядка 20 коммерческих заказов — и никто ничего не заподозрил.
Для просмотра ссылки необходимо нажать
Вход или Регистрация
Николай Иронов от студии Артемия Лебедева
Но тут, как и в случае со Сбером, нейросеть принадлежит студии Артемия Лебедева, соответственно, следовать публичной оферте у компании нет необходимости. То есть один из способов избежать практически любых легальных проблем — создать свой собственный искусственный интеллект. Однако, по понятным причинам, вариант это не слишком удобный.
Нейросети в маркетинговой кампании использовал бренд Coca-Cola. Для этого он вступил в коллаб с OpenAI и выпустил лимитированный напиток Coca-Cola Y3000 Zero Sugar в сгенерированной упаковке.
Для просмотра ссылки необходимо нажать
Вход или Регистрация
Маркетинговая компания Coca-Cola и OpenAI
Впрочем, и тут есть нюанс — официальное сотрудничество с OpenAI.
Нейроквест для социальной сети ВКонтакте создала студия Чижова. По словам разработчиков, сценарий для игры писал ChatGPT, а дорабатывали уже люди. Проект должен был продвинуть как соцсеть, так и доставку суши и роллов «Японори», которая выступила заказчиком. Причем черновой вариант маскота для «Японори» создавался в Midjourney.
Возможно, в данной ситуации любых вопросов разработчики избежали просто потому, что доработкой проекта занимались все-таки люди. Люди правили сценарий, и люди дорисовывали маскота. Такой вариант взаимодействия с нейросетью вполне возможен и не должен вызвать никаких кар со стороны правообладателей — то есть создателей нейросетей.
Бремя перемен
Использование нейросетей — вопрос непростой. С одной стороны, он затрагивает этику: использование в обучении продуктов чужого творчества, копирование, которое невозможно назвать плагиатом. С другой — статус сгенерированного искусственным интеллектом контента неопределен. Пока в ступоре находятся даже суды. Каждое такое дело — прецедент.В России существует «
Для просмотра ссылки необходимо нажать
Вход или Регистрация
» — общественный договор о разумном использовании нейросетей. Его подписали в том числе крупные организации, такие как Сбер, Сколково и другие. Фактически, это единственный документ, регулирующий сферу, и тот носит рекомендательный характер.
Для просмотра ссылки необходимо нажать
Вход или Регистрация
Кодекс этики в сфере ИИ
Дискуссии о создании связанных с ИИ законов уже ведутся. Например, в мае 2024 года депутат Ярослав Нилов предложил ввести уголовное наказание за использование дипфейков. Поправкой о нейросетях народный избранник предложил дополнить статьи о клевете, краже, мошенничестве, вымогательстве и причинении имущественного ущерба путем обмана или злоупотребления доверием.
В Москве на 5 лет с 1 июля 2020 года по 30 июня 2025 года введен экспериментальный режим по внедрению технологий искусственного интеллекта. Но он не учитывает те нейросети, которые обсуждались в статье: они появились позже 2020 года. На этом с российскими ИИ-законами все.
В марте 2024 года в Евросоюзе был принят закон об искусственном интеллекте, который ограничивает распространение опасных систем, способных манипулировать сознанием или иными способами угрожать жизни и здоровью людей. В перспективе его могут дополнить ограничениями для существующих нейросетей — например, запретить разработчикам использовать при обучении контент, защищенный авторским правом. Скорее всего, принятый в Евросоюзе регламент станет повсеместным.
Интересный прецедент произошел в США, где сценаристы бастовали со 2 мая по 27 сентября 2023 года, требуя ужесточить регулирование ИИ. Результатом забастовки, помимо стагнации голливудского кинематографа, стало изменение правил использования ИИ при написании рукописей — теперь нейросеть не может создать сценарий, не может переписать уже имеющийся, а если и создаст, то исходником он считаться уже не будет.
Кроме того, в США крупнейшие игроки на рынке ИИ, такие как Google, OpenAI, Microsoft и другие, согласились добровольно принять на себя обязательства по управлению связанными с нейросетями рисками.
Можно сказать наверняка — законотворческая база будет расширяться, причем во всех странах. Пока же ИИ остается в серой зоне.
Как использовать ИИ в коммерческих целях
Использовать нейросети для маркетинговых кампаний можно, просто следует внимательно читать договор оферты — кому принадлежат права на сгенерированные тексты, видео, изображения, музыку, имеет ли право компания коммерчески эксплуатировать плоды труда ИИ, можно ли, наконец, договориться об этом с разработчиками. Как показывает практика, доработанные генерации вполне допустимо запускать в продакшен — и это принесет хороший результат.Остается вопрос этики, но этическую проблему каждый разрешает для себя сам. Даже в США с прецедентным правом суды выносят решения в пользу разработчиков нейросетей, и тот датасет, который они собирают для обучения своих моделей, остается на их совести. Впрочем, глядя на то, по какому пути все движется, защищенные авторским правом работы, скорее всего, в ближайшем будущем окончательно исчезнут из баз данных моделей.
Для просмотра ссылки необходимо нажать
Вход или Регистрация