El fuego es uno de los principales desastres del mundo. Un sistema de detección de incendios eficaz y eficiente puede reducir en gran medida las pérdidas económicas y humanas. Este post explicara un sistema de detección de incendios basado en Deep Learning exactamente una modificación a Mobile net V2 .
Los trabajos propuestos utilizan una red convolucional modificada de Mobile net V2 que es adecuada para el uso en dispositivos móviles ya que no involucra una gran capacidad computacional claro esto sin comprometer significativamente la precisión de los datos. Esta red utiliza dos hiperparametros with-multiplier y resolution multiplier que contribuyen a una reducción en el tamaño de la red mejorando su eficiencia.
La red basada en Mobile net V2 es una red convolucional típica ,en este trabajo las primeras capas del modelo se mantiene igual y se elimina las ultimas capas del modelo ,luego se agrega una capa de salida antes de la capa de clasificación final para evitar un ajuste excesivo. Esta capa de abandono fue seguida por una capa de clasificación softmax para las dos clases. De esta manera se ajusta el modelo para las dos clases (de fuego y sin fuego) usando el conjunto de datos de entrenamiento
Fig. 1: Arquitectura del modelo de aprendizaje profundo utilizado en este trabajoEl dataset elegido es una combinación de cuatro dataset (Foggia,Chino,Sharma,Propio).El dataset de Foggia contiene 6311 fotogramas de fuego y 51489 fotogramas de sin fuego ,para lograr la homogeneidad en este dataset se aumentó el número de fotogramas de fuego con técnicas como rotación, volteo, zoom, etc y se redujo el numero de fotogramas de sin fuego ,luego se agrego una parte del conjunto del dataset de Sharma y el dataset chino .Luego de todos los cambios al dataset al final se contaba con 8481 imágenes de clases de incendio y no incendio
Fig. 2:Datasets utilizados2.RESULTADOS
El modelo ha tenido un buen desempeño en diferentes conjunto de datos en el dataset creado a mano se tiene una precisión de 99.17 % con 0% de falsos positivos y 0.80 % de falsos negativos y 0.99 de F-Measure.También se obtuvo una velocidad de fotogramas de 5 fotogramas por segundo con nuestra red entrenada mientras se detectaba el fuego en Raspberry Pi 3B, lo que apunta hacia la viabilidad de nuestra red para aplicaciones de visión integradas y móviles. Esta velocidad de fotogramas es lo suficientemente buena como para detectar incendios mientras se ejecuta en cualquier dispositivo integrado o móvil en tiempo real.
Tabla 1. Comparación con enfoques anteriores en el conjunto de datos (de Foggia). MétodosTabla 2. Comparación de la velocidad de fotogramas con DL anteriores . Métodos
3.CONCLUCIONES
En estos trabajos se ha demostrado que es posible aplicar un CNN simple, pero sin sacrificar el rendimiento del modelo. Aun cuando el hardware de bajo coste limita la potencia de calculo los resultados son lo suficientemente buenos exactitud, precisión, medida-f para hacer viable este proyecto. En un futuro se podría mejorar el hardware integrado y también expandir el dataset para poder aumentar la eficiencia y detectar, así como combatir los incendios a campo abierto que son un gran problema para el medio ambiente.
4.REFERENCIAS[1]Jadon, A., Varshney, A., & Ansari, M. S. (2020). Low-Complexity High-Performance Deep Learning Model for Real-Time Low-Cost Embedded Fire Detection Systems. Procedia Computer Science, 171, 418-426.
[2] Bu, F., & Gharajeh, M. S. (2019). Intelligent and vision-based fire detection systems: A survey. Image and Vision Computing, 91, 103803.