Como se podrá leer en este trabajo, el uso de herramientas y técnicas para la creación musical con procesos algorítmicos se remonta al siglo X y quizá antes. Por lo tanto el trabajo que aquí se presenta no pretende ser novedoso en ese sentido sino en el modo de implementación. De esta manera, lo novedoso de esta propuesta radica en el hecho de unir un sistema de generación de datos musicales simbólicos a partir de algoritmos, con la posibilidad de clasificar dicho material a partir de diferentes técnicas de análisis y todo ello implementado en un entorno de trabajo amigable y de uso común en el mundo de la creación e interpretación musical como lo es Ableton Live.
Este trabajo presentará una herramienta denominada AMI (Algorithmic Music Interface) que brinda la posibilidad de generar, a partir de procesos algorítmicos, diferentes perfiles de datos que serán traducidos en alturas, ritmos y dinámicas que podrán ser almacenados en Ableton Live como clips MIDI. Los tipos de algoritmos utilizados son: gramaticales, caóticos, aleatorios, genéticos y autómatas celulares, y el análisis de los datos almacenados podrá llevarse a cabo a partir de cuatro diferentes técnicas: distancia de edición, n-gramos, entropía, similitud cronotónica. Una vez analizados los clips generados, y luego de almacenar dichos análisis en un base de datos, estos serán relacionados entre ellos a partir de una algoritmo de “vecino cercano”.
Este trabajo esta dividido en cinco capítulos. En el primero se introduce al lector en los antecedentes de la composición algorítmica, y se detalla la metodología del trabajo realizado, como así también su justificación y objetivos. En el segundo se explica, de manera pormenorizada, los rudimentos matemáticos de los diferentes algoritmos utilizados para la generación de datos simbólicos. En el tercero se muestra cómo se implementaron dichos algoritmos en el entorno de programación Max for Live. En el cuarto se detallan los tipos de análisis que se utilizaron para crear una base de datos que permitirá la clasificación de los clips generados y se explica cómo se implementa dicho análisis y clasificación dentro de AMI. Por último, en el capítulo quinto se presentan dos ejemplos musicales creados dentro de este entorno.
Esta tesis puede leerse en su versión ePub (haciendo accesible al lector su contenido
multimedia) o en su versión PDF, pudiéndose ver y escuchar los ejemplos de audio y video desde la web https://www.drzoppa.com/ami
top of page
$0.00Price
© Copyright CMMAS 2006 - 2022 Todos los derechos reservados.




bottom of page