Skip to content

hordiales/transferencia-estilo-sms

Repository files navigation

Transferencia de estilo entre audios

Este trabajo tiene como objetivo aplicar en archivos de audio las técnicas de procesamiento con redes neuronales desarrolladas para la transferencia de estilo en imágenes. En particular, aquellas que son de reciente publicación y dentro de su arquitectura utilizan una o más capas de redes neuronales convolucionales (CNN). Para ello, se construyen representaciones de la señal audible en matrices de estructura similar a las que normalmente se utilizan para procesar imagenes. Se evaluan diferentes aproximaciones al problema utlizando técnicas de análisis/síntesis como la transformada de tiempo corto de Fourier (STFT) y la descomposición de la señal de entrada en sinusoides y residuo, derivada del Spectral Modelling Synthesis (SMS), históricamente utilizado en señales de voz. Aunque la definición de estilo puede ser subjetiva, se ensayan algunas aproximaciones en su definición y reconocimiento. Para esto, se desarrollan e implementan diferentes programas en Python utilizando el framework TensorFlow, pensado para construir y entrenar redes neuronales. El resultado es un enfoque diferente para la aplicación de efectos digitales en señales de audio.

Ver demo online: Demo: Tangos 'El Choclo' y 'Adios Nonino'.

Arquitectura CNN

arq-cnn-sms

Dependencias

Ver INSTALL.md para configurar las dependencias.

Usar

$ git clone https://github.com/hordiales/transferencia-estilo-sms
$ cd transferencia-estilo-cnn
$ juypter notebook

Referencias:

Tips para samples y texturas

Ver scripts/

  • Recortar samples con la misma duración
  • Identificar BPM y adaptar si es necesario

Optimizaciones

Ver Optimizaciones.md.

License

GPLv3, ver LICENSE.