¿Un nuevo disco de los Beatles compuesto por una computadora?

Dos científicos estadounidenses produjeron una serie de discos de rock, punk y metal, entre ellos uno basado en la obra de la banda de Liverpool, compuestos por una inteligencia artificial que trabaja a partir de la tecnología de predicción algorítmica.
21 de mayo de 2019

En el camino por lograr que las máquinas emulen de forma consistente la condición humana, una dupla de científicos estadounidenses con base en la ciudad de Boston, Massachusetts, se propuso entrenar a una inteligencia artificial para que pudiera ser capaz de componer una serie de discos de rock. Se trata de CJ Carr y Zack Zukowski, quienes a través del proyecto Dadabots se encargaron de poner en práctica la experiencia. Entre sus pruebas más atrevidas se encuentran desde un álbum de 20 canciones que busca revivir el estilo de los Beatles hasta un canal de youtube en el que un algoritmo toca sus propias canciones de death metal de forma ininterrumpida, sin repetir y sin soplar, las 24 horas de los 365 días del año.

Dadabots opera con una tecnología conocida como SampleRNN, un modelo de redes neuronales artificiales que en lugar de trabajar en base a técnicas de programación es entrenado a partir de la carga de audio en bruto. Es decir, la máquina no recibe la información como datos sino de forma directa: la computadora “escucha y aprende”. SampleRNN nace de la tecnología Deep Learning, un conjunto de algoritmos de aprendizaje automático que permite que un núcleo de inteligencia artificial pueda “instruirse” no solo a partir de la nueva información que recibe, sino de sus propios procesos de prueba y error. Deep Learning hace posible que una máquina sea capaz hallar la solución a un problema sin que las acciones a ejecutar para resolverlo hayan sido programadas previamente, sino que surgen como consecuencia de su propio “aprendizaje”. Una técnica que replica el formato del razonamiento humano.

Lo que esperaban era que su programa Dadabots fuera capaz de elaborar discos completos de géneros como el death o el black metal, el punk y rock, alimentándolo con pequeños fragmentos de sonido que le permitieran a la máquina reconocer la identidad musical de cada artista. La primera prueba que realizaron estos científicos rockeros consistió en ingresar unas pocas canciones de la banda grunge Nirvana, pero sin demasiada confianza en los resultados iniciales. En las primeras piezas generadas por Dadabots el dúo no esperaba escuchar más que una serie de silencios y ruidos sin demasiada lógica ni forma, sin embargo se encontraron con una especie de grito que parecía decir algo acerca de Jesús.

La anécdota relatada por Carr y Zukowski es divertida y sirve para sentir curiosidad por el trabajo que ambos realizan. Buena parte del mismo puede escucharse en el perfil que Dadabots tiene en la plataforma Bandacamp: dadabots.bandcamp.com. Ahí se encuentran almacenados y disponibles de forma gratuita una decena de discos generados a partir del trabajo realizado sobre álbumes de diferentes bandas como los punks californianos NOFX, los blackmetaleros Krallice, los suecos Meshuggah, la banda canadiense de death metal técnico Aepoch y, o sorpresa, los mismísimos The Beatles. Los resultados son sumamente dispares: mientras más “pesada y ruidosa” es la música, más convincente suena la copia. Pero cuanto más melódica y clásicas son las estructuras que se busca replicar, como en el caso de los cuatro de Liverpool, más fallido es el resultado. Sin embargo su escucha no deja de resultar divertida y hasta cómica.

El disco de Dadabots titulado Deep the Beatles! está integrado por 20 fragmentos de 30 segundos cada uno, en los que se muestra el progreso de la inteligencia artificial en el trabajo realizado sobre los originales de Lennon, McCartney, Harrison y Starr. Es decir que a medida que los “temas” van pasando, la máquina comienza a manejar con mayor destreza el material con el que cuenta. El resultado es que en los primeros tracks de la lista apenas se escuchan ruidos que bien podrían ser parte de la banda sonora de una película de terror, mientras que los últimos cortes se asemejan más a collages en los que se superponen de forma delirante fragmentos, a veces fugazmente reconocibles, de diferentes clásicos de la banda. Pero el proceso nunca da como resultado un conjunto sonoro coherente que permita imaginar que se trata de una nueva canción de la banda. A los sumo es posible jugar con la idea de que así sonarían los Beatles si se hubieran conocido en la salita de tres del jardín de infantes. Acá un simpático ejemplo:

Los resultados obtenidos con géneros que trabajan más sobre la saturación o la distorsión sonora y estructuras de tiempo más matemáticas, como ocurre con los asociados sobre todo a algunas ramas del metal más extremo, suenan bastante más próximos a los originales. Pero siguen sin poder quitarse de encima su condición de mera copia y siempre signados por cierto carácter espástico que provoca inconsistencias en el tempo de las canciones, o que las voces suenen como quien toca un disco de vinilo en reversa en busca de mensajes satánicos. En la mayoría de los casos, las tapas de los nuevos discos y los nombres de las nuevas canciones también fueron generadas por algoritmos de Deep Learning aplicados a la producción de imágenes y textos.

Pero sin dudas el logro más relevante de Carr y Zukowski es el canal de YouTube donde habita el artista artificial Relentless Doppelganger, una red neuronal que a partir de los algoritmos SampleRNN genera de forma ininterrumpida canciones de death metal técnico las 24 horas y los siete días de la semana, hasta el infinito y más allá. El resultado es asombroso, aunque quienes mejor lo apreciarán serán los especialistas en las variantes más pesadas del heavy metal.

La generación de esa secuencia musical potencialmente eterna que produce Relentless Doppelganger resulta perfecta para explicar cómo funciona una red neuronal recurrente. Carr y Zukowski explican que estas son utilizadas “para la predicción de secuencias”, es decir que dado lo que ha sucedido anteriormente en una secuencia lógica se vuelve posible arriesgar qué es lo que sucederá a continuación. “La música puede ser modelada como una secuencia de eventos sobre el tiempo”, continúan los científicos, y por lo tanto “se la puede generar al responder una y otra vez esa pregunta: "¿y después qué pasa?" A esta técnica se la denomina “generación autorregresiva y nuestro trabajo es un ejemplo de síntesis neuronal basado en audio”.

A pesar de las fantasías distópicas que permiten imaginar un mundo donde los humanos se vuelvan prescindibles, este dúo de metaleros científicos insisten en que Dadabots no pretende reemplazar a los artistas, si no ayudarlos a aumentar su vida artística. “Para nosotros es más sorprendente escuchar lo que los humanos harán con eso”, sostiene Carr, quien agrega que el trabajo que realiza con su socio forma parte de “un gran plan para colaborar con las bandas que amamos”.

Fuentes: Youtube.com / Bandcamp.com / Bitcoin.es / Arxiv.org.






Esta nota fue posible gracias al apoyo de nuestros lectores.

Su aporte nos permite hacer periodismo sin condicionamientos. El sueño de un medio libre no es solo nuestro.

SEAMOS SOCIOS

Tiempo Audiovisual