А кто автор? Как медиа не получить иск за контент, созданный нейросетью

В конце прошлого года начался настоящий бум использования нейросетей – если вы еще сами и не использовали ChatGPT или MidJourney, то точно о них слышали. Новые сервисы, разумеется, не прошли и мимо редакций – об их возможностях, плюсах и минусах Дмитрий Смирнов писал в одной из своих прошлых публикаций. Сейчас он хотел бы подробнее остановиться на правовых и этических вопросах использования нейросетей в медиа. В подготовке этого материала ему помогла известная беларусская юристка Мария Колесова-Гудилина.

А кто автор? Как медиа не получить иск за контент, созданный нейросетью
Иллюстрация: Getty Images / Unsplash+

Кратко

  • Почему возникли эти вопросы?
  • Что пишут по поводу прав сами создатели нейросетей?
  • Владелец – вы, а есть ли у вас авторские права?
  • Так что же делать редакциям?
  • Опыт Wired и Reuters

Почему возникли эти вопросы?

Нейросети – как текстовые, вроде ChatGPT, так и графические, вроде Midjourney, – обучаются на массивах данных в интернете. А в широком доступе могут быть как изображения, защищенные авторским правом, так и текстовые эксклюзивы, в том числе книги.

В связи с этим возникают вопросы о том, кто будет владеть полученным произведением, кто несет ответственность за плагиат, который сгенерировала нейросеть на базе имеющейся у неё информации и т.д.

Тем более, что уже существуют подобные прецеденты.

Трое художников подали иск к создателям нейросетей Midjourney и Stable Diffusion. По их словам, нейросети обучались на их изображениях, не получив на это согласия авторов.

Аналогичную претензию к владельцам Stable Diffusion предъявил фотобанк Getty Images. И на текущий момент непонятно, является ли это нарушением авторских прав: все зависит от вердикта судьи. Также неизвестно, будут ли виновны пользователи, которые использовали в своих компаниях логотипы и другие изображения, которые сгенерировала нейросеть на основе оспариваемых изображений.

Известный фотобанк Getty Images уже запретил загрузку и продажу иллюстраций, созданных с помощью художественных инструментов искусственного интеллекта (в том числе Midjourney).

Что пишут по поводу прав сами создатели нейросетей?

Итак, искусственный интеллект на базе полученных из сети данных генерирует вам контент. И тут возникает еще один вопрос – кто считается его правообладателем и как этот контент может использоваться?

Я задал этот вопрос напрямую ChatGPT. И вот какой ответ был получен:

«OpenAI (разрабочик ChatGPT – Прим.ред.) не претендует на права авторства на выходные данные GPT-3 или любые из его версий, включая GPT-4. Поэтому тексты, сгенерированные моделями AI, могут быть свободно использованы владельцами лицензий.

Однако конкретные условия могут зависеть от условий лицензионного соглашения между OpenAI и конкретным пользователем или организацией. Например, может быть указано, что тексты, сгенерированные AI, не могут быть использованы для определенных целей.

Пожалуйста, обратитесь к конкретному лицензионному соглашению или консультанту по юридическим вопросам, чтобы получить точную информацию».

А вот что сказано в самом пользовательском соглашении:

«При условии соблюдения вами настоящих Условий OpenAI настоящим передает вам все свои права, право собственности и интересы в отношении выходных данных. Это означает, что вы можете использовать контент для любых целей, включая коммерческие цели, такие как продажа или публикация, если вы соблюдаете настоящие Условия.

Вы несете ответственность за контент, в том числе за обеспечение того, чтобы он не нарушали какое-либо применимое законодательство или настоящие Условия».

Как видим, в OpenAI не претендуют на выходные тексты, но и предупреждают, что вы можете нести за него ответственность (к примеру, в прошлых версиях ChatGPT мог по вашему запросу сделать инструкцию по изготовлению бомбы).

А вот, что указано в соглашени Midjourney:

«В соответствии с лицензией вы являетесь владельцем всех активов, которые вы создаете с помощью Сервисов, насколько это возможно в соответствии с действующим законодательством.

Midjourney не делает никаких заявлений или гарантий в отношении действующего законодательства, которое может применяться к вам. Пожалуйста, проконсультируйтесь со своим собственным юристом, если Вам нужна дополнительная информация о состоянии действующего законодательства в Вашей юрисдикции».

Таким образом, Midjourney никак не ограничивает вас, но и снимает с себя всякую ответственность.

Таким образом, как минимум в этих популярных сервисах вы становитесь владельцем полученного контента, и вы же в случае чего будете нести за него ответственность.

Владелец – вы, а есть ли у вас авторские права?

Это еще один важный вопрос. Мы разобрали, что создатели нейросетей передают вам контент в полное пользование. Но совершенно необязательно что у вас будут на него авторские права.

Во многих юрисдикциях, в том числе в США, для защиты авторских прав требуется человек-автор. Это означает, что контент, созданный искусственным интеллектом, без человеческого участия или творческих усилий может не подпадать под защиту авторских прав сам по себе.

Кто и как будет определять размер того самого человеческого участия?

И тут уже есть совершенно противоположные прецеденты, рассказала Мария Колесова-Гудилина.

«К примеру по решению Народного суда округа Наньшань, Шэньчжэнь (Китай) №14010 от 25 ноября 2019 года авторские права у искусственного интеллекта были признаны.

А по решению австралийского суда по делу IceTV Pty Limited против Nine Network Australia Pty Limited от 22 апреля 2009 года было отказано в защите авторских прав у искусственного интеллекта».

По ее словам, на данный момент есть несколько концепций возможных вариантов правового регулирования контента, созданного искусственным интеллектом:

  • машиноцентрический концепт (искусственный интеллект выступает в качестве автора произведения);
  • концепт гибридного авторства (искусственный интеллект создаёт произведение в соавторстве с человеком);
  • антропоцентрический концепт (искусственный интеллект не обладает никакими правами, он выступает в качестве инструмента, используемого человеком);
  • концепт «исчезающего» (нулевого) авторства;
  • контаминационный концепт, отражающий особо сложные ситуации пересекаемости вышеуказанных концептов.

Также существует классификация искусственного интеллекта по тому, какое влияние он имеет на объект авторских прав:

  • слабое влияние на финальный результат (искусственный интеллект выступает в качестве авторедактора, исправляет стилистические ошибки. Влияние на содержание работы отсутствует);
  • выступать в качестве инструмента (искусственный интеллект редактирует изображения, тексты, при этом творческий потенциал искусственного интеллекта ограничен информацией, которая введена для анализа и обучения);
  • финальный результат непредсказуем (самостоятельность искусственного интеллекта при создании произведения). Исходя из этой концепции, искусственный интеллект будет обладать авторскими правами только в последнем случае, так как самостоятельность творческой деятельности проявляется в отсутствии зависимости искусственного интеллекта от человека.
Как видим, на текущий момент нет четкого и однозначного решения о том, кто и в какой степени будет владеть правами на контент, созданный искусственным интеллектом. Решать это в индивидуальных случаях будет, видимо, эксперт или комплексная экспертиза. Также это будет зависеть от локальных правовых актов той страны, где будет рассматриваться иск.

Так что же делать редакциям?

Приведу пару гипотетических (но вполне возможных) примеров.

Ситуация 1

Представьте, что вы сгенерировали отличный уникальный текст с помощью ChatGPT и разместили его на сайт, не указав, что это сгенерированный текст (имеете на это полное право).

Однако ChatGPT хранит эти данные. И нейросеть после очень похожего запроса выдает практически такой же текст вашему конкуренту. Он размещает его и говорит, что это работа нейросети.

Можно ли и к кому предъявлять претензии? Конкуренту? Нейросети?

Ситуация 2

Я генерирую иллюстрацию к новости – Midjourney дает право даже на коммерческое использование картинки. Однако ко мне приходит иск на огромную сумму – какой-то известный художник видит в иллюстрации плагиат.

Кто тут виноват?

В текущей ситуации в настоящий период времени каждый из таких примеров – это отдельное судебное разбирательство с возможными различными вариантами решений.

Очевидно, что самый простой способ избежать подобных проблем – это вообще не использовать нейросети в работе медиа.

Однако так же очевидно, что редакции будут это делать (и уже делают), так как искусственный интеллект – это полезный современный инструмент, который не стоит игнорировать. И тут мы подходим к вопросу этического регулирования проблемы.

Речь о редакционных политиках медиа, когда четко прописывается – как и в каких случаях может использоваться искусственный интеллект и как его работа должна (или не должна) помечаться.

Опыт Wired и Reuters

Известный интернет-журнал о технологиях WIRED один из первых поделился некоторыми своими правилами использования инструментов искусственного интеллекта:

  • WIRED не публикует истории с текстом, созданным ИИ, кроме случаев, когда суть истории в том, что конкретный текст сгенерировал искусственный интеллект. В таких случаях журнал сообщает об этом и обозначает ошибки. Это касается не только целых статей, но и фрагментов. Это также касается редакционных текстов на других платформах, таких как имейл-рассылки.
  • WIRED не публикует тексты, редактируемые ИИ. Есть риск, что он может внести фактические ошибки или изменить содержание.
  • WIRED не публикует изображения и видео, созданные ИИ. Авторы судятся с генераторами изображений за нарушение авторских прав, использующих их работы для обучения. В некоторых странах есть законы, запрещающие такое использование. По крайней мере, пока юридические вопросы не будут урегулированы, журнал не будет публиковать такие изображения, даже если эти работы необходимо приобрести.

Как видим, редакция WIRED хорошо осознает, какие проблемы могут быть связаны с использованием искусственного интеллекта в редакциях. Тем не менее, журнал пишет, что он не запрещает сотрудникам пользоваться нейросетями для каких-то других вопросов – например, брейншторминга тем или поиска информации. При этом добавляя:

«Однако даже если эти инструменты окажутся полезными, в WIRED не хотят, чтобы журналисты полагались на них больше, чем на информацию в Википедии. Редакция продолжает настаивать на привычных стандартах исследований и оригинальных репортажей. Многие профессиональные исследовательские базы данных являются законными и имеют высокоточные инструменты для поиска текстов и данных».

В Reuters считают технологию искусственного интеллекта, включая генеративные текстовые модели, такие как ChatGPT, прорывом, предлагающим потенциал для улучшения журналистики и расширения возможностей журналистов.

При этом четко прописывают следующие редакционные правила:

  • Репортеры и редакторы Reuters будут принимать полное участие и полностью отвечать за контент, который создают с помощью ИИ. К нему также будут применяться редакционная этика и стандарты.
    Reuters будет сообщать об использовании инструментов ИИ. Издание будет предоставлять читателям и клиентам как можно больше информации о происхождении новостей – от специфики источника до методов создания или публикации.
  • Журналисты Reuters могут использовать инструменты искусственного интеллекта, таких, как ChatGPT, для идей заголовков и статей.
  • Reuters не будет публиковать истории, видео или фотографии, созданные ИИ, а также не редактировать с их помощью тексты, пока инструменты ИИ нового поколения не будут соответствовать стандартам по точности и надежности.
  • Если речь идет о необходимости использования сгенерированной картинки или текста в новости (когда это необходимо, например, для демонстрации новых возможностей ИИ), такой контент будет содержать оговорку о том, что «этот текст создан ИИ и отредактирован редакцией Reuters».
  • Редакции следует никогда не доверять непроверенным фактам без авторства, которые предоставляет система ИИ.
  • Reuters также несет юридическую ответственность за публикуемый контент, независимо от того, участвовал ли в его создании инструмент ИИ.

Как видим, редакции не отказываются от пользы, которую могут принести различные ИИ-сервисы, однако на текущем этапе четко прописывают возможности их применения и берут на себя ответственность за возможные риски.

Таким образом, пока в мире не выработаны некие общие правила по тому, на чем должны обучаться нейросети, пока нет общепринятых четких юридических норм, закрепляющих авторские права на контент, созданный ИИ, редакции должны очень аккуратно пользоваться нейросетями и четко понимать существующий риск от их применения в своей работе.
Падзяліцца:

Автор: Дмитрий Смирнов, Пресс-клуб Беларусь

12 чэрвеня 2023 года
Перадрук матэрыялаў press-club.pro магчымы толькі з дазволу рэдакцыі. Падрабязней...
Press Club BelarusМедыякухняА кто автор? Как медиа не получить иск за контент, созданный нейросетью

Падпішыся на нашу медыйную рассылку!

Кожны тыдзень атрымлівай на пошту: якасныя магчымасці (гранты, вакансіі, конкурсы, стыпендыі), анонсы івэнтаў (лекцыі, дыскусіі, прэзентацыі, прэс-канферэнцыі) і карысны кантэнт

Падпісваючыся на рассылку, вы згаджаецеся з Палітыкай канфідэнцыйнасці
Мы выкарыстоўваем файлы cookies. Правілы канфідэнцыйнасці
Прыняць