Resumen: El presente trabajo consiste en la elaboración de un algoritmo para el reconocimiento de 4 emociones (molesto, triste, feliz, neutral) a través de audio y plasmarlo en un aplicativo web. Extraeremos las características acústicas representadas por el espectrograma del audio transformado en imagen. Esa imagen la utilizaremos como input a una red neuronal convolucional con la arquitectura ResNet34. Compararemos los resultados en 2 datasets: RAVDESS y un dataset propio.