Se encontraron 3 coincidencias

por jfrancop
12 Sep 2020, 12:04
Foros: Proyectos en Inteligencia Artificial
Tema: SISTEMA DETECCIÓN DE ROSTROS Y MASCARILLAS POR CÁMARA
Respuestas: 0
Vistas: 268

SISTEMA DETECCIÓN DE ROSTROS Y MASCARILLAS POR CÁMARA

Descripción de trabajo
Debido al aumento de contagios del COVID19 en el Perú, 710067 casos confirmados al 11/09/2020, por no cumplir los protocolos de distancia, ir con mascarilla o desinfectarse, el COVID 19 es una ‎enfermedad infecciosa causada por un ‎coronavirus recientemente descubierto.
La mayoría de las personas que enferman de ‎COVID 19 experimentan síntomas de leves a ‎moderados y se recuperan sin tratamiento ‎especial.
Surge la necesidad como apoyo, crear una forma a la cual se les pueda impedir la entrada a personas de centros comerciales, mercados u otra aglomeración, que no lleven mascarilla y asi poder mitigar el contagio del COVID 19
Para ello se opto como solución de TI, el uso de algoritmos y herramientas, para el reconocimiento de las personas y si llevan mascarilla, se utilizo PYTHON 3,7 con TENSORFLOW, KERAS Y OPENCV
Integrantes:
  • Jose Franco Prada
  • Jorge Raymundo
Source: Video:
por jfrancop
16 Ago 2020, 23:31
Foros: Inteligencia Artificial
Tema: Análisis de opiniones en tiempo real de Twitter usando Deep Learning (Keras)
Respuestas: 0
Vistas: 3299

Análisis de opiniones en tiempo real de Twitter usando Deep Learning (Keras)

Título:
  • Real Time Sentiment Analysis On Twitter Data Using Deep Learning(Keras)
Descripción
  • Resumen
  • En este estudio se aborda el análisis de la opinión en tiempo real, en este caso la plataforma social Twitter, con la idea de conocer la opinión positiva o negativa de las personas sobre algún tema, como alguna marca, película, juego, política, etc. Se hizo uso de lenguaje de programación python, librerias necesarias para usar deep learning, se utilizo como dataset los mensajes de las personas por medio de una API.
  • Descripción del problema
  • En estos tiempos donde la información es muy importante para la toma de decisiones, en las redes sociales se generan gran volumen de opiniones sobre diferentes tópicos, información relevante para empresas, organizaciones, partidos políticos, etc. Es necesario crear una herramienta capas de procesar miles de opiniones de las personas, y poder obtener la opinión positiva o negativa de un tema en especifico.
  • Algoritmos
  1. NLP: El Procesamiento del Lenguaje Natural (NLP por sus siglas en inglés) es el campo de estudio que se enfoca en la comprensión mediante ordenador del lenguaje humano. Abarca parte de la Ciencia de Datos, Inteligencia Artificial (Aprendizaje Automático) y la lingüística. En NLP las computadoras analizan el leguaje humano, lo interpretan y dan significado para que pueda ser utilizado de manera práctica. Usando NLP podemos hacer tareas como resumen automático de textos, traducción de idiomas, extracción de relaciones, Análisis de sentimiento, reconocimiento del habla y clasificación de artículos por temáticas.
  2. DEEP LEARNING:El Deep Learning o aprendizaje profundo se define como un algoritmo automático estructurado o jerárquico que emula el aprendizaje humano con el fin de obtener ciertos conocimientos. Los algoritmos que componen un sistema de aprendizaje profundo se encuentra en diferentes capas neuronales compuestas por pesos (números). El aprendizaje profundo es parte de un conjunto más amplio de métodos de aprendizaje automático basados en asimilar representaciones de datos. Una observación (por ejemplo, una imagen) puede ser representada en muchas formas (por ejemplo, un vector de píxeles), pero algunas representaciones hacen más fácil aprender tareas de interés (por ejemplo, "¿es esta imagen una cara humana?") sobre la base de ejemplos, y la investigación en esta área intenta definir qué representaciones son mejores y cómo crear modelos para reconocer estas representaciones.
  3. WORD2VEC:Utiliza un modelo de red neuronal para aprender asociaciones de palabras de un gran corpus de texto. Una vez entrenado, dicho modelo puede detectar palabras sinónimas o sugerir palabras adicionales para una oración parcial. Como su nombre lo indica, word2vec representa cada palabra distinta con una lista particular de números llamada vector. Los vectores se eligen cuidadosamente de modo que una función matemática simple (la similitud del coseno entre los vectores) indique el nivel de similitud semántica entre las palabras representadas por esos vectores.
Resultados
  • La clasificación de la opinión sobre un tema, denominado TOKEN se dio en los siguientes pasos: Hacer uso del API para obtener los mensajes, recorrer cada mensaje por TOKEN, procesar, eliminar inconsistencias en los mensajes, convertir letras a vectores y entrenar la Neural Network, pudiendo obtener clasificacion positiva y negativa del tema de tendencia.
Imagen
Herramientas y librerías
  1. SCI-KIT LEARN LIBRARY:Es una libreria gratuita para Python. Cuenta con algoritmos de clasificación, regresión, clustering y reducción de dimensionalidad.
  2. PYTHON 3.7:Es un lenguaje de programación que está disponible y resuelve un problema informático de forma más sencilla.
  3. NATURAL LANGUAGE PROCESSING TOOLKIT:Es una biblioteca en Python que interpreta el lenguaje humano para la NLP
  4. KERAS:Es una biblioteca de Redes Neuronales de Código Abierto escrita en Python. Es capaz de ejecutarse sobre TensorFlow, Microsoft Cognitive Toolkit o Theano.?Está especialmente diseñada para posibilitar la experimentación en más o menos poco tiempo con redes de Aprendizaje Profundo
  5. TENSORFLOW:Es una biblioteca de código abierto para aprendizaje automático a través de un rango de tareas, y desarrollado por Google para satisfacer sus necesidades de sistemas
  6. THEANO:Es una biblioteca de Python y un compilador optimizador para manipular y evaluar expresiones matemáticas, especialmente las de valor matricial.
  7. PLAIDML:Es un compilador de tensor portátil. Los compiladores de tensor cierran la brecha entre las descripciones matemáticas universales de las operaciones de aprendizaje profundo, como la convolución, y el código específico de la plataforma y el chip necesarios para realizar esas operaciones con un buen rendimiento
Conclusiones:
  • El desarrollo y uso de las herramientas mencionadas permitió conocer la opinión negativa o positiva sobre diferentes temas, es posible expandir a futuro el sistema a la lectura de mensajes de otras plataformas sociales como facebook o reddit, el resultado puede ser expresado en gráficos pie o barras, siendo posible su entendimiento y posterior toma de decisión.
Referencias:
por jfrancop
30 Jul 2020, 01:18
Foros: Inteligencia Artificial
Tema: Sistema detección de rostros y mascarillas utilizando tensorflow en rasbperry pi3
Respuestas: 0
Vistas: 287

Sistema detección de rostros y mascarillas utilizando tensorflow en rasbperry pi3

Problema:
Debido a la problemática actual de la pandemia por el virus COVID19, se recomienda cubrirse la boca y nariz para no contagiarse, entonces surge la necesidad de tener un sistema el cual pueda identificar si la persona lleva mascarilla, como también identificarla. Puede ser usado en lugares como centros comerciales para evitar que personas sin mascarillas entren al establecimiento y así minimizar los contagios.
Solución propuesta:
Se opto por usar Raspberry pi3 por su bajo consumo de energía y la posibilidad de hacer uso de una WEBCAM, su sistema operativo Raspbian viene con python 3 por defecto, con su capacidad ethernet, es posible conectar a una base de datos MYSQL, el proceso de registro de datos del usuario, se realizara desde un formulario web hecho en PHP, a su vez se le integrara 2 leds ROJO y VERDE para indicar la autorización de pase del usuario.
A continuación se detalla las herramientas usadas:
  • Raspberry PI3
Es un ordenador de placa reducida, ordenador de placa única u ordenador de placa simple (SBC) de bajo costo desarrollado en el Reino Unido por la Raspberry Pi Foundation
  • Tensorflow 2.1
Es una biblioteca de inteligencia artificial de código abierto, que utiliza gráficos de flujo de datos para construir modelos. Permite a los desarrolladores crear redes neuronales a gran escala con muchas capas. TensorFlow se utiliza principalmente para: Clasificación, Percepción, Comprensión, Descubrimiento, Predicción y Creación.
  • Keras 2.8
Keras es una biblioteca de red neuronal de código abierto escrita en Python. Es capaz de ejecutarse sobre TensorFlow, Microsoft Cognitive Toolkit, R, Theano o PlaidML. Diseñado para permitir una rápida experimentación con redes neuronales profundas, se enfoca en ser fácil de usar, modular y extensible.
  • HAAR
Básicamente el rostro tiene aproximaciones donde se ubica los ojos, la nariz y boca, son características principales para la identificación de un usuario.
Imagen
XML:https://github.com/opencv/opencv/blob/m ... efault.xml
  • Cascading Classifier
Basado en la concatenación de varios clasificadores, utilizando toda la información recopilada de la salida de un clasificador dado como información adicional para el siguiente clasificador en la cascada.
Imagen
Descargas:
https://jamesmccaffrey.wordpress.com/20 ... hon-3-6-5/
Paper:
https://www.semanticscholar.org/paper/A ... 292662f9f1
Demo:
https://www.youtube.com/watch?v=OSu7Dxj4O50