Se encontraron 5 coincidencias

por jsalas
21 Dic 2022, 23:56
Foros: Internet of Things (IoT)
Tema: Resumen de aplicaciones de inteligencia artificial usando internet de las cosas
Respuestas: 0
Vistas: 9766

Resumen de aplicaciones de inteligencia artificial usando internet de las cosas

Resumen de aplicaciones de inteligencia artificial usando internet de las cosas.

Jorge Roger Salas Escobar
Unidad de Posgrado UNI-FIIS, Universidad Nacional de Ingeniería
Lima, Perú
j.salas.e@uni.pe

1. DESCRIPCIÓN DE LOS TRABAJOS REALIZADOS SOBRE INTERNET DE LAS COSAS

Descripción.
En el presente artículo se hace un análisis y resumen de los casos de utilización del Internet de las Cosas haciendo uso de la Inteligencia Artificial.

1.1. Paper 1: “TECNOLOGÍAS DISRUPTIVAS EN EDUCACIÓN VIRTUAL”

1.1.1. Descripción del problema
En el mundo actual se hace necesario que las organizaciones educativas virtuales estén preparadas para innovar en sus procesos. La metodología empleada para la presente investigación responde a un enfoque mixto. En lo cualitativo se realizó una revisión documental de bases de datos científicas y en lo cuantitativo se realizó un diseño no experimental).

1.1.2. Algoritmos y resultados de las pruebas

En lo cualitativo se realizó una revisión documental de bases de datos científicas y
en lo cuantitativo se contó con un diseño no experimental longitudinal de tipo descriptivo.
Acorde a Hernández, Fernández, y Baptista (2014) es posible identificar y describir las
variables en un lapso con el fin de establecer en este caso el estado de la ciencia y de la técnica
e innovación en la educación.

Las fases de la investigación fueron las siguientes:
Fase 1. Construcción de una bibliometría con el propósito de identificar la productividad
científica y las fuentes y tipo de publicaciones relacionadas con el objeto de estudio.
Fase 2. Definición del factor crítico de vigilancia mediante una revisión de las variables que hacen
parte de la productividad científica del objeto de estudio y la selección del área de interés de los
investigadores.
Fase 3. Construcción del estado de la Ciencia mediante la revisión de las temáticas expuestas
en los artículos científicos que se relacionan con el factor crítico de vigilancia.
Fase 4. Construcción del estado de la técnica mediante la recopilación de inventores y
patentes relacionadas con el objeto de estudio.
Fase 5. Construcción de un mapa tecnológico de relación entre el estado de la ciencia y el
estado de la técnica.

Para poder identificar como se están integrando las tecnologías 4.0 en la educación virtual se realizó una búsqueda de palabras claves en la base de datos de Scopus, por parejas relacionando cada una de las tecnologías con la educación virtual y un análisis de coocurrencia de las palabras que se repiten en los artículos de investigación, siendo estos objetos de relación entre variables Los resultados se aprecian en la Figura 4.

Internet de las cosas representa para el área de salud pública una posibilidad innovadora para entender y atender el fenómeno salud-enfermedad de las poblaciones, y proporcionar una red de colaboración entre individuos sustentado en la conformación de una arquitectura de la participación desde un enfoque inteligente.

1.1.3. Herramientas

• Base de datos de Scopus.
• SPSS
• VOSviewer

1.1.4. Descripción de los Dataset

Las tecnologías 4.0 cambian la forma en que se gestiona el conocimiento principalmente
en la educación virtual. Se determinaron los siguientes clústeres a) características del e-learning, (b) características de la industria 4.0, (c) avances tecnológicos tradicionales para la educación y la
industria y (d) avances tecnológicos disruptivos para la educación virtual y la industria

1.2. Paper 2: “Development of smart aquaculture farm management system using IoT and AI-based surrogate models”

1.2.1. Descripción del problema
Debido a la baja participación laboral de los adultos jóvenes y el envejecimiento de la población agrícola, Taiwán y el resto del mundo enfrentan escasez de mano de obra en la agricultura, lo que afectará la producción acuícola. El sistema propuesto está destinado principalmente a resolver los problemas que enfrenta el sector de la acuicultura en Taiwán mediante el diseño de un sistema inteligente de control y monitoreo de peces basado en IoT equipado con diferentes dispositivos IoT para permitir la recopilación de datos en tiempo real; para que las condiciones de calidad del agua del estanque de peces y otros parámetros del sistema puedan monitorearse, ajustarse y evaluarse fácilmente de forma remota.

1.2.2. Algoritmos y resultados de las pruebas

Deep learning (DL) es un gran avance en la IA que ha superado limitaciones. La inteligencia artificial (IA) se ha utilizado ampliamente en varios campos, incluida la agricultura, bioinformática, robótica, IoT, medicina, etc. DL es parte del área de aprendizaje automático (ML); sin embargo, mejora el
preprocesamiento de datos al recuperar automáticamente características extremadamente no lineales y complicadas a través de numerosas capas.

Se trabajan con series temporales de aprendizaje profundo como LSTM puede no ser lo suficientemente estable y, por lo tanto, insuficiente para predecir todas las dinámicas en tiempo real.

1.2.3. Herramientas.
El estanque de peces inteligente está equipado con múltiples sensores como sensor de pH, sensor de temperatura, sensor de oxígeno disuelto y sensor de turbidez conectados con el controlador Arduino Mega2560 con módulo Wi-Fi integrado, múltiples actuadores como calentador, interruptor de límite, bomba de agua, agitador, dispositivo a prueba de viento y dispositivo de alimentación inteligente, y IPCAM para monitoreo en tiempo real.

1.2.4. Descripción de los Dataset.

Para la toma de decisiones se han considerado los siguientes datos:
Oxígeno disuelto (ppm), valor pH, Temperatura, Turbidez (NTU), Cantidad de cebo (grano/semana), Incremento de longitud (cm/semana)

1.3. Paper 3: “Collaborative APIs recommendation for Artificial Intelligence of Things with information fusion”

1.3.1. Descripción del problema.
Con el rápido desarrollo de la Inteligencia Artificial de las Cosas (AIoT), se desarrollan e implementan muchas aplicaciones, especialmente aplicaciones móviles y aplicaciones de borde. Se desarrollan muchos softwares para admitir aplicaciones tan diversas. Para facilitar el desarrollo de software para AIoT, los desarrolladores y programadores generalmente confían en el empleo de interfaces de programación de aplicaciones (API) maduras.

1.3.2. Algoritmos y resultados de las pruebas.
Los sistemas a utilizar recomendados se pueden dividir en tres tipos, es decir, sistema de recomendación basado en contenido, sistema de recomendación de filtrado colaborativo (CF) y sistema de recomendación híbrido. La factorización matricial (MF) es uno de los modelos CF más populares. MF aprende las características latentes de los datos históricos.
Un modelo brinda resultados de recomendación del lado del usuario y el otro modelo brinda resultados de recomendación del lado de la API. Para utilizar completamente todo tipo de información tanto en el lado del usuario como en el lado de la API, también proponemos un modelo de recomendación de API conjuntas.

• Desarrollamos una técnica de factorización de matriz conjunta completando la fusión de información de diferentes tipos de información en AIoT. Además, construimos un marco de recomendación de API colaborativo basado en redes neuronales, cálculo de similitud y los modelos MF colaborativos propuestos.

• Construimos tres modelos de recomendación de API para AIoT que contienen dos modelos individuales y un modelo Joint-MF. Los dos modelos individuales son capaces de utilizar diferentes tipos de información en el lado del usuario y en el lado de la API, respectivamente. El modelo Joint-MF está diseñado para aprovechar al máximo toda la información tanto en el lado del usuario como en el de la API.

• Recopilamos un conjunto de datos del mundo real que se puede usar como punto de referencia de evaluación de la tarea de recomendación de API en AIoT. Realizamos suficientes experimentos y los resultados experimentales demuestran que nuestros modelos generan un rendimiento superior y no son sensibles a los parámetros

Conjunto de datos y entorno experimental
Rastreamos un conjunto de datos del mundo real de ProgrammableWeb. 1 ProgrammableWeb es un repositorio de recopilación de API que recopila diversa información de API, incluidos desarrolladores, seguidores, características, introducciones y etiquetas. Hay 22 032 API y 17 412 usuarios (desarrolladores y seguidores) en el conjunto de datos rastreado. Los desarrolladores y seguidores se unifican para ser denominados usuarios. Las funciones contienen un grupo de atributos de API, como portal de API, formato de solicitud de una API.

1.3.3. Herramientas.
Software word2vec, ProgrammableWeb

1.3.4. Descripción de los Dataset.

Conjunto de datos del mundo real que se puede usar como punto de referencia de evaluación de la tarea de recomendación de API en AIoT. Realizamos suficientes experimentos y los resultados experimentales demuestran que nuestros modelos generan un rendimiento superior y no son sensibles a los parámetros.

2. CONCLUSIONES

• PAPER 1: En este caso se están integrando las tecnologías 4.0 en la educación virtual, el cual se verifica que tienen un gran impulso en el tema del aprendizaje.

• PAPER 2: En este caso se observa que haciendo uso de la LSTM, se están logrando buenos resultados con la aplicación de diversas herramientas de IA.

• PAPER 3: En este caso se plantea la utilización de tres tipos de Sistemas; que utilizándolos de manera conjunta en un API se obtendrán buenos rendimientos.

3. REFERENCIAS BIBLIOGRAFICAS.

 [1] Tecnologías disruptivas en educación virtual.
https://dialnet.unirioja.es/servlet/art ... go=8116507

 [2] Development of smart aquaculture farm management system using IoT and AI-based surrogate models
https://www.sciencedirect.com/science/a ... via%3Dihub

 [3] Collaborative APIs recommendation for Artificial Intelligence of Things with information fusion
https://www.sciencedirect.com/science/a ... 9X21002582
por jsalas
21 Dic 2022, 21:59
Foros: Inteligencia Artificial
Tema: Resumen de trabajos de Machine Learning aplicados a la agricultura en Latinoamérica
Respuestas: 0
Vistas: 1113

Resumen de trabajos de Machine Learning aplicados a la agricultura en Latinoamérica

Resumen de trabajos de Machine Learning aplicados a la agricultura en Latinoamérica

Jorge Roger Salas Escobar
Unidad de Posgrado UNI-FIIS, Universidad Nacional de Ingeniería
Lima, Perú
j.salas.e@uni.pe

DESCRIPCIÓN DE LOS TRABAJOS REALIZADOS.

1. ARTICULO 1: “MACHINE LEARNING APLICADOS A LA AGRICULTURA EN EL PERU O LATINOAMERICA”

Descripción.
En el presente artículo se hace un análisis de los casos en los que se ha aplicado el uso del Machine Learning como solución a problemas presentado en el área agrícola.

1.1. Paper 1: “Sistema de inteligencia artificial para la predicción temprana de heladas meteorológicas”

1.1.1. Descripción del problema
El problema que se aborda en este artículo es sobre eventos a los que sen expuestos los cultivos como las heladas como un factor meteorológico importante para la hidrología, climatología y agricultura.

1.1.2. Algoritmos y resultados de las pruebas
Para este trabajo de investigación se planea predecir el rendimiento de los cultivos en función de variables ambientales como el suelo, el agua y el clima.
1.1.2.1. Diseño y entrenamiento de un SLFN con el algoritmo Extreme Learning Machine (ELM)
El resultado final del proceso es un dataset de entrenamiento con 178.450 mediciones meteorológicas sin datos faltantes ni aberrantes principalmente ocasionados por fallas en las estaciones metereológicas del SENAMHI, también se preparó un segundo dataset de validación con 14.535 mediciones meteorológicas.

Se demuestra que con una estructura de red neuronal mono capa con propagación hacia adelante, utilizando el algoritmo de ELM, se consiguen altos niveles de generalización similares o superiores a otros algoritmos y estructuras de redes neuronales.

Según indica este artículo se propone crear una máquina de aprendizaje extremo (ELM) utilizando el algoritmo propuesto por Huang sobre una red neuronal monocapa con propagación hacia adelante, como base para la predicción temprana de heladas meteorológicas. El estudio fue desarrollado en el Valle Alto del departamento de Cochabamba-Bolivia, los datos fueron colectados en 6 estaciones meteorológicas llegando a un total de 178450 mediciones, se para el entrenar la red neuronal. Para la verificación se utilizaron los datos obtenidos de las estaciones meteorológicas de Tiquipaya y Arque del año 2016. Con márgenes de confianza superiores al 90%.

1.1.3. Herramientas

Scipy, Es una librería para la programación científica que comenzó su desarrollo en 2001 está escrita en Python. SciPy es una expansión de NumPy, que integra nuevos paquetes para el tratamiento científico de datos. Integra gran cantidad de funciones de procesamiento de imágenes, procesado de la señal, estadística, integración numérica.

1.1.4. Descripción de los Dataset

Se han identificado 2 grupos de dataset:
1.1.4.1. Dataset de entrenamiento
La investigación se concentra en el Valle Alto del departamento de Cochabamba. Los datos fueron proporcionados por el Servicio Nacional de Meteorología e Hidrología (SENAMHI), de 6 estaciones meteorológicas automatizadas que se encuentran en las poblaciones de Tarata, Arbieto, Punata, Cliza y San Benito:

El periodo de Colecta de datos corresponde a diciembre de 2011 hasta agosto de 2015, se tienen 1.360 días observados. El tiempo entre mediciones que realizan las estaciones meteorológicas es de 15 min, como resultado se obtienen 96 mediciones por día, lo que nos proporciona entre todos los días observados y las 6 estaciones un dataset de 179.320 mediciones.

1.1.4.2. Dataset de validación
Para validar el modelo y demostrar la alta capacidad de adaptación del ELM se utilizarán dos nuevas estaciones meteorológicas la primera ubicada en la población de Tiquipaya (valle) y la segunda en la población de Arque (zona andina) del departamento de Cochabamba.

1.1.4.3. Las variables de estudio en la investigación son:
• Temperatura relativa
• Radiación Solar
• Viento
• Humedad
• Precipitación

1.2. Paper 2: “An Assertive Machine Learning Model for Rural Micro Credit Assessment in Peru”

1.2.1. Descripción del problema
La población rural en Perú tiene un acceso limitado al sistema financiero debido al alto costo del crédito y el alto riesgo (tasas de morosidad) causado por el sector informal. Por lo tanto, es necesario mejorar los microcréditos asertivos en favor de la economía rural.
Se propone encontrar el nivel más alto de asertividad para el proceso de concesión de crédito y la consiguiente reducción del riesgo de crédito utilizando varios modelos de Machine Learning.

1.2.2. Algoritmos y resultados de las pruebas
La metodología propuesta para este trabajo es:
1.2.2.1. Determinación de Variables Rurales.
Las variables rurales determinadas como, los datos fueron extraídos, preprocesados y validados para ejemplos de entrenamiento.
1.2.2.2. Implementación del modelo.
Con base en las variables seleccionadas en el paso anterior, se eligen los modelos de aprendizaje automático, considerando trabajos sobre riesgo de crédito, como se muestra en la Tabla 2, donde los modelos utilizados son:
Logistic Regression (LR); Random Forest (RF); Support Vector Machine (SVM); Artificial Neural Network (ANN); Decision Tree (dTree); Naive Bayer classifier (NBC); k-Nearest Neighbors (kNN); Linear Discriminant Analysis (LDA); Multimonial Regresion (MR); Extreme Gradient Boosting (XGBoost); Light Gradient Boosting Machine (LightGBM); Gradient-Boosted Decision Trees (GBDT) and Adaptive Boosting (ADABoost):

Se determinan las métricas Accuracy, Precision, Recall, F1 Score y AUC ROC

Estos modelos consideraron variables significativas del proceso de evaluación del microcrédito en áreas rurales, técnicas de prueba como SMOTE y K-fold y, evaluando los modelos utilizando algunas métricas, como Precisión, Precisión, Recuerdo, F1 Score, AUC ROC. El modelo LightGBM, basado en árboles de decisión, logró un excelente nivel de asertividad, con una tasa de éxito de préstamos del 96,20%. Los resultados de la reducción de la tasa de morosidad demuestran que es óptimo utilizar herramientas tecnológicas

1.2.3. Herramientas.
Para las implementaciones de algoritmos, se utilizó la biblioteca Scikit Learn, que tiene dependencias mínimas y se distribuye bajo la licencia simplificada Berkeley Software Distribution (BSD) y la biblioteca Keras, bajo Licencia MIT, ambos módulos Python, que integran un amplio rango de algoritmos para modelos de aprendizaje automático de próxima generación que incluyen problemas supervisados y no supervisados. Las bibliotecas Pandas se utilizaron para la lectura de archivos otorgados por la entidad, Numpy para el procesamiento previo de datos y Matploit, para la representación de los resultados gráficos, los tres últimos bajo la licencia BSD.
1.2.4. Descripción de los Dataset.

Para la toma de decisiones como puntuación de crédito; basado en algunos criterios como Conducta, Pagabilidad y condiciones macroeconómicas como El método de las cinco "C".
La empresa microfinanciera dedicada al sector rural evaluada utilizó 17.454 productos de microcréditos agrícolas entre 2017 y 2018. La metodología utilizada fue el método de las cinco "C", en el que se especificaron las variables rurales, en función de la importancia que tiene la concesión de microcréditos; los modelos fueron implementados y finalmente, evaluados. La principal contribución de este trabajo es obtener el modelo con los mejores resultados en tiempo computacional y asertividad para reducir el riesgo de crédito. Los resultados buscan mejorar la exactitud de los préstamos otorgados y la reducción del tiempo empleado por los analistas en tales evaluaciones, buscando obtener una mejor capacidad de pago del cliente rural, mejorando su calidad de vida.

1.3. Paper 3: “Aplicación de técnicas de Machine Learning como método de validación para predecir la efectividad de un modelo estadístico de series de tiempo en la producción de fruta fresca en las diferentes provincias del Ecuador”

1.3.1. Descripción del problema.
El objetivo de este paper para predecir la demanda/precio de productos agroalimentarios. Este acercamiento busca encontrar los principales factores que afectan la demanda de estos productos, además, la evaluación de diversos algoritmos de inteligencia artificial, que aplicando aprendizaje automático ayuden a obtener valores de predicción de una manera eficiente y con niveles de precisión adecuados.


1.3.2. Algoritmos y resultados de las pruebas.
Para este trabajo de investigación se planea predecir el rendimiento de los cultivos en función de variables ambientales como el suelo, el agua y el clima. Se explica los modelos, donde el algoritmo aprende interactuando con el medio ambiente, y obtendrá recompensas por acciones correctas realizadas y sanciones por las incorrectas.

• Redes neuronales
• Series de tiempo
• Máquina de Soporte Vectorial (SVM)
• K-Vecinos: basado en instancia de tipo supervisado de Machine Learning.
• Modelo Bayesiano

Dado que el dataset cuenta con 28 datos, de los cuales 24 son de entrenamiento y 4 como parte del conjunto de datos de prueba y validación. Se crea y entrena un modelo tipo ForecasterAutoreg a partir de un regresor RandomForestRegressor y una ventana temporal de seis lags, significando con ello que estamos utilizando los seis registros temporales anteriores.

1.3.3. Herramientas.
Software desarrollado en Python, sería el siguiente paso implementaciones similares usando los productos de software especializados como Matlab® y Weka.

1.3.4. Descripción de los Dataset.

Para efectos de la determinación del modelo inicial sólo es de interés para esta primera etapa el volumen de la predicción y la temporalidad se incluye en una variable de marca de tiempo. También se identificó el ciclo de vida del producto en cuestión, así como las tendencias o comportamientos del costo en el mercado, al igual que elementos que determinan el costo de producción, los cuales eventualmente podrán ser considerados como variables complementarias del modelo.

2. CONCLUSIONES

• PAPER 1: En este caso se utilizó algoritmo Extreme Learning Machine (ELM), el cual demostró su efectividad, logrando un 90% de confianza.(BOLIVIA)

• PAPER 2: En este caso se optó por SMOTE y K-fold utilizando un grupo de modelos siendo el mejor resultado con LightGBM 96,20% de préstamos.(PERU)

• PAPER 3: En este caso se optó ForecasterAutoreg para lo cual se trabajó con 28 datos, 24 como parte de entrenamiento y 4 como prueba y validación.(MEXICO)

3. REFERENCIAS BIBLIOGRAFICAS.

 [1] Sistema de inteligencia artificial para la predicción temprana de heladas meteorológicas.
http://www.scielo.org.bo/scielo.php?scr ... 6000200007

 [2] An Assertive Machine Learning Model for Rural Micro Credit Assessment in Peru
https://www.sciencedirect.com/science/a ... 0922005749

 [3] Determinación de los factores implicados y algoritmos de aprendizaje automático para la predicción de la demanda de productos agrícolas
http://pistaseducativas.celaya.tecnm.mx ... /2757/2129
por jsalas
29 Sep 2022, 23:30
Foros: Inteligencia Artificial
Tema: Cómo la IA podría tener un impacto positivo en algunos sectores en el Perú (Industria)
Respuestas: 0
Vistas: 1116

Cómo la IA podría tener un impacto positivo en algunos sectores en el Perú (Industria)

La IA permite revolucionar la industria utilizando los modelos de gestión y de negocio de las organizaciones; se detallan las siguientes:

Predecir con algoritmos: Estos programas de computadora no solo miran hacia atrás en los datos, sino que nos ayudan a mirar hacia adelante. Con algoritmos inteligentes ahora podemos predecir tendencias complejas en el futuro. Podemos predecir el mantenimiento no planificado analizando automáticamente los sensores integrados en las máquinas. Podemos analizar varios procesos comerciales, como la cadena de suministro, las adquisiciones y la línea de producción. Y podemos automatizar varias actividades que antes eran principalmente humanas utilizando algoritmos.

Aumento de la productividad: El aumento del rendimiento de los trabajadores y de la capacidad productiva de las empresas parece ser el principal beneficio de la implantación de la inteligencia artificial. Enseñar a las máquinas a encargarse de los procesos rutinarios servirá para que los trabajadores puedan aprovechar mejor su tiempo.

Mejora de la calidad de vida de los trabajadores: Como ya sucedió cuando comenzó la robotización de la industria, la IA permitirá a las personas desarrollar capacidades menos mecánicas. A largo plazo hará que cobren mayor importancia los factores emocionales, la creatividad, la intuición o la imaginación. En el desempeño de sus tareas, cada trabajador sentirá que aporta algo diferente al resto y se podrá sentir más valorado.

Mejor conocimiento de los clientes: La implantación de programas informáticos inteligentes servirá para dar mejores respuestas automatizadas a las demandas de los clientes. También serán útiles para conocerlos mejor y para diseñar estrategias de fidelización. Esto ya se está poniendo en práctica, por ejemplo, mediante los últimos sistemas de planificación de recursos empresariales, llamados ERP por sus siglas en inglés.

Mejor conocimiento de los propios productos: El análisis de grandes cantidades de datos que propicia la IA y sus distintas aplicaciones no solo permite gestionar un gran volumen de clientes, sino también de los productos que se les ofrecen. Conocer en profundidad todos los detalles de cada artículo, de su almacenamiento, distribución y venta es una ayuda esencial para las empresas del siglo XXI. La inteligencia artificial permitirá simplificar todos los procesos de control y gestión de los datos para brindar información relevante en tiempo real.

Influencia en el mercado laboral: Los expertos de recursos humanos creen que las nuevas tecnologías basadas en la IA no van a aumentar el desempleo. Lo que sí parece inevitable es que los trabajadores deberán actualizarse porque desaparecerán algunas ocupaciones y surgirán otras. Es decir, el número neto de puestos de trabajo seguirá siendo aproximadamente el mismo, lo que cambiará será el tipo de empleo. Así, la edad y la formación serán dos aspectos claves para encontrar trabajo, incluso más que en la actualidad.

Alumno: Jorge Roger Salas Escobar
Curso: Inteligencia Artificial (Maestría en Ingeniería de Sistemas - UNI)