В ходе конференции Hot Pod Summit, проведённой The Verge и work x work 28 февраля 2024 года, представители Adobe показали генеративный искусственный интеллект GenAI Control, который, по мнению компании, «ознаменует новую эру в музыкальном искусстве». Платформа не только генерирует музыку по текстовому запросу пользователя, но и кастомизирует его по желанию пользователя.
Созданная Adobe при участии исследователей Университета Калифорнии и Университета Карнеги-Меллона, платформа находится на стадии прототипирования и лишена привычного пользовательского интерфейса. Несмотря на это, проект уже генерирует музыку по запросам пользователя (например, «весёлая танцевальная музыка» или «грустный джаз»), а также корректирует звучание на основе множества параметров.
По мнению Гаутама Майсора, руководящего отделом исследований в области искусственного интеллекта в Adobe, проект позволит «воплотить свои идеи тем, кто не является композитором». Взаимодействие с площадкой описывается руководителем как «принятие на себя роли дирижёра виртуального оркестра».
Помимо типичных инструментов для ввода текстовых запросов, Project Music GenAI Control умеет регулировать темп музыки, менять её интенсивность, определять количество паттернов и общую структуру музыкальной композиции. Всё это открывает путь «к экспериментам с созданием бесконечных музыкальных фрагментов или ремиксов», а заодно расширяет горизонты творческой свободы человека, полагают в Adobe.
В компании понимают, что развитие искусственного интеллекта выводит вопросы нарушения авторских прав на одну из ведущих ролей. Чтобы решить эти проблемы, разработчики обучают модели только на основе лицензированных данных или данных, находящихся в статусе общественного достояния, что позволяет избежать нарушений интеллектуальной собственности.