Глава разработки покидает Stable Audio, протестуя против «эксплуатации» чужой музыки при обучении ИИ

Компании с миллионными прибылями бесплатно используют чужие произведения и обесценивают их, чтобы зарабатывать ещё больше, считает Эд Ньютон-Рекс.



Глава разработки покидает Stable Audio, протестуя против «эксплуатации» чужой музыки при обучении ИИ

Глава команды разработки Stability AI, известной по выпуску музыкального генератора под управлением искусственного интеллекта Stable Audio, Эд Ньютон-Рекс объявил об уходе со своего поста в компании. Своё решение разработчик объяснил несогласием с тем, как индустрия обучает ИИ-модели. Stability AI занимается разработками и исследованиями в области искусственного интеллекта. Основными продуктами компании являются нейросети, генерирующие аудиовизуальный контент по текстовым запросам пользователя — Stable Audio для генерации музыки и Stable Diffusion для генерации изображений.

По словам разработчиков, тренировка языковой модели Stable Audio проводилась на коммерческой и авторской музыке. В общей сложности нейросеть отслушала 19 500 часов музыки, используя для этого базу AudioSparx — именно этот материал лёг в основу навыка нейросети создавать собственные музыкальные произведения. Созданием и подготовкой обеих моделей руководил Эд Ньютон-Рекс — музыкант и разработчик, чьи идеи легли в основу музыкального генератора Stable Audio. Несмотря на успех алгоритмов, глава разработки решил покинуть компанию, выразив несогласие с тем, как Stability AI и вся индустрия в целом обучает языковые модели.

Глава разработки покидает Stable Audio, протестуя против «эксплуатации» чужой музыки при обучении ИИ></p>
<p align=Эд Ньютон-Рекс — ведущий разработчик Stability AI, ответственный за создание ИИ Stable Audio

В опубликованном сообщении Ньютон-Рекс отметил, что не согласен с политикой Stability AI, считающей приемлемым использование материалов, защищённых авторским правом, при обучении искусственного интеллекта. Компания отмечает, что полагается на принцип «добросовестного использования», прописанный в применяемом в США Законе об авторском праве. Согласно ему, охраняемые законом материалы могут быть ограниченно использованы без согласия правообладателя в случаях, если они применяются в рамках критики и освещения новостей, а также в образовательных и исследовательских целях.

По словам Ньютон-Рекса, что на «добросовестное использование» ссылаются многие крупные компании, занимающиеся генеративным искусственным интеллектом и создающие соответствующие модели. Однако разработчик не согласен с тем, что обучение искусственного интеллекта на чужих произведениях подпадает под образовательные и исследовательские цели.

Ньютон-Рекс отмечает, что законодательство США не допускает прикрытие понятием «добросовестного использования» в тех случаях, когда использование материалов влияет на «потенциальную стоимость произведения, защищённого авторским правом». Автор моделей считает, что нейросети обесценивают произведения, на которых они обучались, и создают условия для нечестной конкуренции. «Я не понимаю, как [в подобной ситуации] использование [охраняемых законом] произведений для обучения нейросетей можно считать добросовестным использованием», — заявил программист. Развивая свою мысль, разработчик отметил, что методы обучения языковых моделей не только не подпадают под понятие добросовестного использования, но и попросту морально некорректны. Раскрывая свою мысль, Ньютон-Рекс заявил, что большие компании с миллионными счетами бесплатно обучают нейросети на чьих-то произведениях, после чего зарабатывают ещё больше на своих алгоритмах.

Компании с миллиардами долларов без какого-либо разрешения [со стороны авторов] обучают генеративные модели искусственного интеллекта на работах других людей, после чего модели создают новый контент, во многих случаях способный конкурировать с оригинальными работами. Я не понимаю, как это может быть приемлемо в обществе, где экономика в сфере творчества построена таким образом, что авторы полагаются только на авторское право.

Эд Ньютон-Рекс, один из авторов ИИ Stable Audio

Разработчик отметил, что остаётся сторонником генеративного искусственного интеллекта, чей потенциал всё ещё не до конца раскрыт. Тем не менее он будет поддерживать только те алгоритмы, которые не эксплуатируют авторов и не используют чьё-либо творчество без разрешения, признался автор Stable Audio. Раскрывая свою мысль, Ньютон-Рекс обратил внимание на общую нечестность ситуации. Искусственный интеллект бесплатно обучается на произведениях других авторов, вложивших в них весь свой талант и многие часы работы. В итоге интеллект учится на лучших произведениях, создаёт всё более убедительные работы, становится сильнейшим конкурентом людям и всё это происходит под эгидой «добросовестного поведения», что в корне несправедливо.

Глава разработки покидает Stable Audio, протестуя против «эксплуатации» чужой музыки при обучении ИИ

Комментируя уход Ньютон-Рекса и его видение происходящего, генеральный директор Stability AI Эмад Мостак заявил, что разработчик дал старт важной дискуссии, требующей серьёзного внимания общественности. Вместе с тем руководитель не согласился с тем, что компании извращают понятие добросовестного использования и привёл ссылку на документ, излагающий позицию Бюро авторских прав США по вопросу обучения генеративных моделей на защищённых авторским правом произведениях.

Вместе с тем пользователи, ознакомившиеся с позицией разработчика, выразили сомнение относительно его взглядов. В частности, ряд комментаторов отметил, что нейросети обучаются на материалах, защищённых авторским правом, точно так же, как и люди, которые учатся играть и писать собственную музыку, слушая песни других авторов и черпая из них вдохновение. «Чем обучение модели на чужих песнях отличается от обучения студента на чужих песнях?», — задался вопросом один из пользователей Твиттера/X, однако ответа от Ньютон-Рекса не получил.


Подготовлено по материалам сайта "SAMESOUND", ноябрь 2023 г. www.samesound.ru

Эту статью прочитали 820 раз
Статья входит в разделы:Новости мира Hi-Fi

Поделиться материалом:
Обсуждение данного материала
Комментариев пока нет. Станьте первым!
Написать свой комментарий