Искусственный интеллект и авторское право: кто победит в битве?

В музыкальной индустрии существует два подхода к применению искусственного интеллекта. Один из них был использован Джайлсом Мартином, сыном продюсера группы «Битлз» сэра Джорджа Мартина

artificial intelligence

В музыкальной индустрии существует два подхода к применению искусственного интеллекта (ИИ). Один из них был использован Джайлсом Мартином, сыном продюсера группы «Битлз» сэра Джорджа Мартина. Он применил ИИ для создания ремикса на альбом «Револьвер» 1966 года, используя монофоническую мастер-ленту, чтобы изучить звучание каждого инструмента группы, таких как гитара Джона Леннона. Благодаря этому удалось разделить звучание и перевести его в стерео, что дало великолепный результат. Второй подход заключается в применении инструмента искусственного интеллекта ChatGPT, разработанного компанией OpenAI, для анализа текстов песен, написанных в стиле Ника Кейва, австралийского поэта-песенника. Он выразил свою негативную реакцию на этот подход, считая, что написание хорошей песни не заключается в подражании, репликации или пастише, а является актом самоубийства, который уничтожает все, к чему человек стремился в прошлом.

Господин Кейв, возможно, не будет впечатлен новой версией алгоритма ChatGPT, названной GPT4, которую представила OpenAI 14 марта. Однако мистер Мартин может считать ее полезной. Майкл Нэш, главный цифровой директор крупнейшего в мире лейбла Universal Music Group, приводит примеры, как искусственный интеллект, стоящий за приложениями для создания контента, может помочь или наоборот разрушить творческий процесс.В общем, появление ботов в музыкальной индустрии напоминает о событии, которое потрясло ее историю — появление и закрытие пиратской платформы Napster в начале 2000-х годов. Napster был закрыт из-за нарушения авторских прав, и появление агрессивных ботов, которые также нарушают интеллектуальную собственность, вызывает опасения. Нэш сравнивает этот подход с тем, что делал Napster, и призывает провайдеров ботов не просить прощения и не разворачиваться в этом рынке.

Однако, основная проблема не заключается в создании искусственных пародий на известных людей или в подделке стихов Шекспира. Суть в том, что боты поглощают данные, защищенные авторским правом, чтобы обучаться создавать контент, который похож на тот, что создают люди. Эти данные могут быть получены из различных источников, таких как социальные сети, поисковые системы, электронные библиотеки, телевидение, радио и банки статистики.Иногда модели искусственного интеллекта получают информацию из баз данных без разрешения правообладателей. Правообладатели жалуются на то, что их работы используются без согласия, кредита или оплаты. Это может привести к юридическим проблемам, которые выходят за рамки творческой индустрии и распространяются на другие бизнесы, где машинное обучение играет важную роль, например, на самоуправляемые автомобили, медицинскую диагностику, робототехнику и управление страховыми рисками. В Европейском союзе существует директива по авторскому праву, которая регулирует датамайнинг. В США нет конкретных примеров генеративного искусственного интеллекта, но есть различные теории относительно использования данных без лицензий, основанные на доктрине «добросовестного использования». Компания Napster попыталась использовать эту доктрину в качестве защиты в США и потерпела неудачу, но это не означает, что в этот раз результат будет аналогичным.

Один из ключевых аргументов в дискуссии о «добросовестном использовании» заключается в том, что использование защищенных авторским правом произведений может считаться добросовестным, если оно служит ценной социальной цели, не затрагивает основной рынок владельцев авторского права и исходный материал преобразуется из оригинала. Тем не менее, критики утверждают, что в случае использования ИИ это не совсем так, поскольку ИИ используют всю полноту баз данных, которые они добывают, а не преобразуют исходный материал. Критики также заявляют, что компании, занимающиеся машинным обучением, злоупотребляют принципом добросовестного использования, чтобы получить выгоду за счет труда отдельных людей, что угрожает средствам к существованию создателей и может способствовать массовой слежке и распространению ложной информации. В то же время авторы утверждают, что доступ к обучающим наборам является ключевым фактором в развитии ИИ, и без такого доступа ИИ может не появиться вовсе, что может привести к умиранию отрасли в зачаточном состоянии. Эти аргументы являются одними из самых важных юридических вопросов века, связанных с возможностью использования авторского права роботами для обучения.

Компания Getty Images подала иск на Stability AI за нарушение авторских прав на фотографии из своей коллекции для создания модели ИИ, конкурирующей с Getty. Решение по этому делу может стать прецедентом для добросовестного использования. Важное решение может вынести Верховный суд Америки по делу о трансформации изображений Принса Энди Уорхолом. Это может стать руководством для добросовестного использования в целом, считает эксперт Дэниел Джервейс из Юридической школы Вандербильта в Нэшвилле.

Генеративные ИИ сталкиваются с юридическими проблемами, связанными с защитой авторских прав и ответственностью за создаваемый ими контент. Однако, не во всех юрисдикциях ясно, имеют ли генеративные ИИ права на интеллектуальную собственность на создаваемые ими материалы, так как авторское право защищает работы, созданные только людьми. Также возникают политические вопросы, связанные с ответственностью генеративных ИИ за создаваемый ими контент и защитой конфиденциальности данных. В целом, существует несколько неопределенных вопросов в юридических проблемах, связанных с генеративными ИИ.

Борьба за интеллектуальную собственность в сфере генеративных ИИ будет серьезной. Согласно мнению г-на Нэша, творческие индустрии должны быстро занять позицию и обеспечить этичное использование и лицензирование творчества художников для обучения моделей ИИ. Он также призывает производителей ИИ документировать и раскрывать свои источники данных. Однако это требует тонкого баланса, потому что творческие личности не хотят казаться врагами прогресса, а многие могут использовать преимущества использования ИИ в своей работе. 

Урок, который можно извлечь из опыта Napster, заключается в том, что лучше адаптироваться к новым технологиям и использовать их в своих интересах, чем игнорировать их и надеяться, что они исчезнут. В нашей цифровой эпохе новые технологии и инновации появляются быстрее, чем когда-либо прежде, и важно уметь адаптироваться к ним, чтобы не оставаться позади. История Napster демонстрирует, что попытки запретить новые технологии обречены на провал, и лучше всего использовать их для своих целей, находить новые возможности и развиваться вместе с ними.

 

Понравилось? Оставьте комментарий

Ваш адрес не будет опубликован


*