AI MusicGen de Meta crea música a partir de mensajes de texto #Meta #IA #AIMusicGen #AI

AI MusicGen de Meta crea música a partir de mensajes de texto

Meta anunció la semana pasada que ha desarrollado un procesador de música AI que genera música basada en descripciones de lenguaje natural.

MusicGen de Meta, que sigue los pasos del lanzamiento de enero de Google de MusicLM que genera música basada en mensajes de texto o tarareos, fue entrenado en 20,000 horas de música. Su código fuente abierto está disponible en Github y el modelo se puede probar en línea en Hugging Face.

Los usuarios ingresan una breve descripción de la música que quieren escuchar, como «Una combinación dinámica de hip-hop y elementos orquestales, con instrumentos de cuerda y metales que evocan la energía vibrante de la ciudad». O la descripción podría ser más simple: «canción de rock de los 90 con un riff de guitarra».

Opcionalmente, se puede cargar una canción para ayudar a guiar la creación del contenido deseado.

MusicGen genera un clip de 12 segundos en un par de minutos.

Según sus evaluaciones del programa, Meta descubrió que MusicGen obtuvo mejores resultados tanto en medidas objetivas como subjetivas que otros programas comparables, como MusicLM, Diffusion y Noise2Music.

«MusicGen produce muestras de alta calidad que están mejor alineadas melódicamente con una estructura armónica dada, mientras se adhieren a una descripción textual», informó Meta en un artículo publicado el 8 de junio en el servidor de preimpresión arXiv .

La herramienta es vista como una ayuda potencialmente invaluable para compositores e intérpretes.

Meta probó tres versiones de su modelo. Varían en la cantidad de detalles musicales proporcionados: 300 millones, 1500 millones y 3300 millones de parámetros.

En las evaluaciones, Meta descubrió que los humanos preferían los resultados del modelo de rango medio (1500 millones de parámetros). Esto quizás refleja la teoría del productor francés de música y electrónica Rone para una producción musical exitosa: «Menos es más».

Sin embargo, el modelo con la mayor cantidad de parámetros generó una salida que reflejó con mayor precisión la entrada de texto y audio.

Inevitablemente, como ocurre con gran parte de los proyectos de IA en otros campos, surgirán preocupaciones. Los más importantes son los problemas legales relacionados con el uso de material protegido por derechos de autor.

Meta dice que todas las canciones utilizadas en el entrenamiento están aprobadas por acuerdos legales con los titulares de los derechos de autor.

Pero los usuarios que agregan una canción o el nombre de un artista a su descripción pueden abrir la puerta a una posible infracción de derechos de autor. MusicLM de Google prohíbe a los usuarios incluir nombres de artistas, pero Meta no lo hace.

Y dado que Meta permite a los usuarios cargar también una canción para ayudar a dar forma al resultado final, la línea entre el contenido original y el copiado se vuelve borrosa.

El cantante y compositor australiano Nick Cave, al abordar el tema de la música de IA a principios de este año, no dejó dudas sobre su posición en la música de IA.

«Las canciones surgen del sufrimiento… se basan en la compleja lucha humana interna de la creación», dijo. «Hasta donde yo sé, los algoritmos no sienten. Los datos no sufren. ChatGPT no tiene un ser interior, no ha estado en ninguna parte, no ha soportado nada, no ha tenido la audacia de ir más allá de sus limitaciones, y por lo tanto no tiene la capacidad de una experiencia trascendente compartida, ya que no tiene límites desde los cuales trascender».

De manera similar, Ben Beaumont-Thomas de The Guardian afirmó recientemente: «AI siempre será un tributo. Puede ser un tributo muy bueno, del tipo que, si fuera un humano, obtendría reservas durante todo el año en cruceros y en Las Vegas». 

Pero el CEO de Spotify, Daniel Ek, tiene una perspectiva más optimista sobre la música generada por IA.

«Esto podría ser potencialmente enorme para la creatividad… Eso debería conducir a más música [que] creemos que es genial culturalmente», dijo.

Más información: Jade Copet et al, Generación de música simple y controlable, arXiv (2023). DOI: 10.48550/arxiv.2306.05284

Información de la revista: arXiv

Autor del Post