Se encontraron 11 coincidencias

por alejandro_araujo
02 Oct 2020, 22:25
Foros: Inteligencia Artificial
Tema: Aprendiendo a proteger comunicaciones con criptografía neuronal adversa
Respuestas: 1
Vistas: 2456

Aprendiendo a proteger comunicaciones con criptografía neuronal adversa

El siguiente paper trata de enseñar a redes neuronales a proteger la información, esto a través de criptografía neuronal adversa. Ambas redes no tienen como objetivo ser expertas en criptografía, pero se tratará de que aprendan a proteger la confidencialidad de los datos. Ambas redes aprenderán cifrado y descifrado con algoritmos específicos para estos fines.¬
El proyecto tendrá 3 redes neuronales nombradas Alice, Bob y Eve; las dos primeras tendrán como objetivo comunicarse entre ellas y el tercero será el que tratará de obtener información de esa comunicación.
En el resultado, Alice y Bob tuvieron un gran éxito para encriptar y desencriptar, pero la parte negativa viene por parte de Eve, ya que no pudo romper el código cifrado creado por parte de Alice e Eve.
Se demostró que las redes neuronales una mayor capacidad para encriptar, pero no son muy buenos desencriptando.

Imagen

Referencia:
https://arxiv.org/pdf/1610.06918.pdf
por alejandro_araujo
02 Oct 2020, 16:23
Foros: Inteligencia Artificial
Tema: Anticipándose a la insuficiencia cardiaca con machine learning
Respuestas: 1
Vistas: 2478

Anticipándose a la insuficiencia cardiaca con machine learning

En Estados Unidos ha habido varios casos de insuficiencia cardíaca. Una señal aguda de insuficiencia cardíaca es el exceso de fluidos en los pulmones, lo cual es conocido como edema pulmonar.
Para detectar el exceso de fluido se necesita de rayos X, lo cual a veces genera resultados inconsistentes.
Para resolver ese problema, un grupo liderado por investigadores del MIT han desarrollado un modelo de machine learning, el cual puede cuantificar qué tan severo es un edema. Lo clasifica en un rango de 4 niveles, donde 0 significa saludable y 3 significa muy, muy malo. Para el caso de detectar el nivel 3, el modelo lo ha hecho con 90% de éxito.
El objetivo en sí del proyecto es de brindar un información adicional a los doctores que puede ser usado en los diagnósticos, así como también la de permitir análisis retrospectivos.
El equipo que desarrolló el modelo sostiene que también lo puede usar detectar casos de sepsis y “kidney” que están fuertemente asociadas a un edema.

Imagen del nivel 1 y 3 para clasificar el edema

Imagen

Link de la noticia:
https://news.mit.edu/2020/anticipating- ... rning-1001
por alejandro_araujo
02 Oct 2020, 15:33
Foros: Inteligencia Artificial
Tema: Tallk, un app que permite comunicarse a los enfermos de ELA
Respuestas: 2
Vistas: 4946

Tallk, un app que permite comunicarse a los enfermos de ELA

Tallk es una aplicativo desarrollado por una startup española llamada Irisbond, el cual le permite comunicarse a personas con poca movilidad y ausencia de lenguaje oral.
El aplicativo se basa en tecnología de seguimiento ocular para poder hacer seguimiento a lo que una persona ve por medio de la cámara integrada de una Tablet.
El proyecto es una combinación de inteligencia artificial, mecanismos de seguimiento facial y modelos de Deep learning basado en redes neuronales.
En el presente proyecto trabajaron personas expertas en diferentes campos, desde expertos que permiten la comunicación asistida por tecnología, hasta expertos en la enfermedad y otros problemas de comunicación.
Usando algoritmos de inteligencia artificial, el programa interpreta los movimientos que realiza el ojo humano para saber qué parte del teclado virtual se está visualizando, con el fin de verbalizar el texto introducido por el usuario.
La aplicación permite guardar una serie de frases favoritas, también permite al usuario la comunicación con el asistente de Samsung llamado Bixby, con esto, el usuario puede reproducir canciones, leer mensajes de voz e incluso establecer alarmas.



Link de la noticia:
https://www.20minutos.es/noticia/439801 ... toref=true
por alejandro_araujo
02 Oct 2020, 12:42
Foros: Inteligencia Artificial
Tema: IA puede detectar Covid19 in los pulmones de igual manera que una prueba médica
Respuestas: 0
Vistas: 429

IA puede detectar Covid19 in los pulmones de igual manera que una prueba médica

Una investigación desmostró que un algoritmo de inteligencia artificial puede ser entrenado para clasificar el covid 19 con un alto porcentaje de éxito, 84% de éxito para casos positivos y 93% de éxito para casos negativos, esto lo hace por medio de una tomografía computarizada. Pero por el momento los autores no lo recomiendan ya que los signos detectados en la imagen para detectar el covid son similares a los de la neumonía.
Para entrenar el modelo se usó un total de 2724 imágenes de 2617 pacientes. Para esta caso se usó un total de 1280 imágenes para el entrenamiento del modelo y 1337 para la prueba y evaluación del modelo.
Imagen

Referencia
https://www.sciencedaily.com/releases/2 ... 144426.htm
por alejandro_araujo
23 Ago 2020, 22:08
Foros: Inteligencia Artificial
Tema: Sistemas de reconocimiento facial
Respuestas: 1
Vistas: 3766

Re: Sistemas de reconocimiento facial

Título: Sistema de reconocimiento facial
A continuación, se presenta un resumen de 2 trabajos elaborados para el reconocimiento facial, el primero tiene como objetivo determinar si es el color en una imagen aporta una mayor precisión al momento de reconocer un rostro. Y el segundo elaborar un prototipo de seguridad usando un algoritmo de reconocimiento llamado PCA.
Ambos trabajos usan el enfoque de Eigenfaces, este enfoque descompone las imágenes en vectores llamados Eigenfaces, estos vectores contienen la información de los rostros, luego lo que se hace es obtener un “espacio generado” para los rostros guardados, y cuando se quiere reconocer un rostro, se compara el espacio generado del rostro que quieres conocer con un espacio generado de los rostros que ya se habían guardado previamente.

Los dos papers tienen en común el enfoque de eigenfaces pero los demás pasos son distintos por lo que se pasará a explicar esos pasos para cada paper.
El primer paso es aumentar la calidad de la imagen para que el sistema pueda reconocer mejor un rostro. Una vez está hecho, se pasa a usar el algoritmo de AdaBoost para el reconocimiento del rostro, lo hace en base a una serie de n clasificadores, estos clasificadores reciben características de tipo Haar, la imagen de entrada y una máquina de aprendizaje, en este caso se usa Máquinas de Soporte Vectorial (SVM). Es en base a este último factor que se diferencia las caras de las no caras.
Imagen
Una vez se obtiene una cara, se pasa a usar el enfoque Eigenfaces para la detección de estos. Los resultados que se obtienen para el espacio de color RGB, HSV y para escala de grises. Para estos 3 casos se obtienen 3 métricas, la sensibilidad (capacidad para clasificar a una imagen como cara), la especificidad (capacidad de clasificar una imagen como no cara y a una persona como no reconocido) y el valor predictivo positivo (probabilidad de que un rostro sea reconocido correctamente). En los que el HSV obtiene un mayor valor positivo predictivo.
Se hacen pruebas para este caso pero haciendo dos tipos diferentes de procesamiento de imágenes, los métodos son: ecualización de histograma y filtrado y ecualización del histograma.
Resultados para ecualización de histograma
Imagen
Resultados para filtrado y ecualización de histograma
Imagen
En el segundo paper se tiene un proyecto de seguridad y funciona de la siguiente manera, el administrador de la aplicación le da una contraseña a los usuarios y esta contraseña debe de coincidir con una de las que está guardada en la base de datos, si esta contraseña dada al nuevo usuario es ingresada de manera correcta, el sistema tomará fotos del usuario para añadirlo a la base de datos.
Para aplicar el algoritmo PCA es necesario una serie de pasos
Paso 1: a cada imagen se le debe redimensionar de tal manera que se tenga una imagen cuadrada, es decir, una imagen de N x N. Las imágenes se pasan a escala de grises
Paso 2: Por cada usuario tendremos M fotos por lo que ahora debemos de concatenar las imágenes con un tamaño de N x N x M. Estas serán concatenadas en una matriz.
Paso 3: Se debe de calcular un “rostro promedio” por cada usuario, las imágenes se obtienen de la base de datos.
Paso 4: Se normaliza los promedios, se debe restar el promedio a cada imagen.
Paso 5: La matriz N x N x M se usará por obtener los autovectores.
Este autovector que se guarda en la base de datos será como un identificador para una persona, cuando un nuevo usuario muestre su rostro, se le generará su propio autovector y se hará una diferencia con los autovectores en la base de datos, si esa diferencia es menor a un valor determinado, entonces las personas son las mismas.
Conclusiones:
La espacio de colores RGB presenta una mayor probabilidad para reconocer un rostro adecuadamente, pero es menor que el espacio de colores HSV.
El pre-procesamiento de imágenes aumenta la probabilidad de que un rostro sea reconocido con éxito.
Los autovectores generados por el algoritmo PCA permiten una correcta validación de los usuarios.
Matlab permite la fácil implementación del algoritmo PCA.
La normalización, rotación del plano de la imagen, y la zona de la imagen utilizada permiten obtener una mayor precisión al momento de reconocer un rostro
Referencias:
Paper: Sistema de reconocimiento facial basado en imágenes con color
Autores: BEATRIZ OMAIRA PEDRAZA PICO, PAOLA RONDÓN, HENRY ARGUELLO.
Paper: PROTOTIPO DE SEGURIDAD MEDIANTE RECONOCIMIENTO FACIAL POR MEDIO DEL ALGORITMO DE EIGENFACES
Autores: Yeison Fernando Arcos Acuña, Diego Armando Moreno Meneses, Wolffang David Niño Pacheco.
por alejandro_araujo
14 Ago 2020, 22:16
Foros: Inteligencia Artificial
Tema: Detección de phishing basado en características de la url
Respuestas: 1
Vistas: 899

Re: Detección de phishing basado en características de la url

Título: Detección de phishing basado en características de la url
Descripcion:
-Trabajos pasados
Existen muchos trabajos para detectar phishing en una url basado en ciertas características, lo que varía en cada trabajo es el algoritmo de machine learning aplicado por el autor. Los algoritmos más usados son de redes neuronales, redes bayesianas, árboles de decisión, support vector machine, en algunos se usa la combinación de más de uno de ellos ("Phishing websites classification using hybrid svm and knn approach”), en otros casos se hace uso de un algoritmo para la optimización de la predicción. Estos se usan para poder entrenar un modelo en base a un conjunto de datos y poder predecir si una url es de phishing o no.
-Problema
El problema que se va a tratar es resolver los ataques de phishing, el cual es un método que consiste en imitar páginas web legítimas de una organización, ya sean bancos, redes sociales, páginas de compras, etc; todo esto con el fin de obtener la información del usuario, esta información puede ser contraseñas, nombres de usuario o detalles de tarjetas de crédito.

El phishing se puede realizar de diferentes maneras, los casos más comunes son por medio de mensajes de correos electrónicos, mensajes de texto o por mensajes a una red social, los cuales contienen url´s que aparentan ser legítimas. Estas direcciones web son hechas por atacantes que te redirección a una página que te pedirá información personal con el fin de robártela.

Una vez se consigue la información del usuario, el atacante puede hacer muchas cosas con esto, robo de dinero, robo de identidad, etc.

Para solucionar este problema se plantea definir características presentes en una url como la edad del dominio, la longitud de la url, la aparición de una dirección ip en el dominio, el ranking de la página en google, etc. Un dataset de estas características permitirá entrenar un modelo de machine learning para predecir si la página es de phishing o no.

-Algoritmos y resultados de la prueba
El autor usa 3 algoritmos de machine learning: árboles de decisión, random forest y redes neuronales y hace una comparación entre ellos para ver cual tiene mejor resultado.
También hace uso de 2 algoritmos para la selección de atributos, InfoGain y ReliefF, con esto pueden obtener las mejores características y descartar las que no ayudan a entrenar correctamente el modelo. Para aplicar los algoritmos el autor hace uso de la herramienta Weka que facilita la aplicación de algoritmos de machine learning a un conjunto de datos.
Randon forest = RF, Árboles de decisión = j48, redes neuronales = MultilayerPeceptron (MLP)
Imagen

Resultado de mejores características que entrenan un modelo con InfoGain
Imagen

Para calcular el porcentaje de precisión del resultado de cada algoritmo se hace uso de la siguiente fórmula =(True posivite + True nevative)/(total de resultados)
Donde:
True positive: indica los resultados en los que se predijo que la url era una página de phishing y realmente si lo era.
False positive: es la cantidad de veces en la que se predijo que la página no era de phishing y si lo era.
False negative: es el caso en el que se predijo que la página no era de phishing y si lo era.
True negative: es la cantidad de veces en la que se predijo que no era una página de phishing y realmente no lo era.

Los experimentos hechos fueron, primero, se obtuvo resultados de los algoritmos de entrenamiento con todas las características, luego se hace uso de los algoritmos InfoGain y ReliefF para seleccionar las mejores características que ayuden el modelo, primero se hace uso de las primeros 5 mejores características, luego de 10 y al final de 15, tanto para el algoritmo InfoGain y ReliefF, lo cuál sería un total de 7 resultados (por cada algoritmo de entrenamiento) en los que se mide la precisión de la predicción y el tiempo que toma entrenar el modelo.
Adicionalmente, si hicieron dos experimentos adicionales, el primero consiste en hacer la intersección de las 15 mejores características del algoritmo InfoGain y ReliefF lo cual daría un total de 10 características. Y en el segundo experimento se tomará la unión de las mejores características obtenidas por ambos algoritmos mencionados anteriormente, lo cual daría un total de 20 características.
Resultados 1
Imagen

Resultados 2
Imagen

Para todos estos casos se corrieron los 3 algoritmos mencionados que son: árboles de decisión, random forest y redes neuronales. Se usarán 2 métricas para medir el rendimiento de un modelo, uno es el porcentaje de precisión explicado anteriormente y el segundo es el tiempo de entrenamiento del modelo.
Los mejores resultados se obtienen con el algoritmo de Random Forest con un porcentaje de precisión de 98.37%. El menor resultado tiene una precisión de 89,75% y es obtenido por el algoritmo de Random Forest.
-Conclusiones
Una gran cantidad de características usadas en una url no es mucha ayuda ya que gran parte de ellas no ayuda a obtener buenos resultados y tampoco a entrenar correctamente el modelo.
Los algoritmos de machine learning tienen un alto porcentaje de precisión al momento de predecir si una url es de phishing o no.

Artículo 1:
Phishing Detection Based on Machine Learning and Feature Selection
Autor: Mohammed Almseidin
Artículo 2:
Comparison of Adaboost with MultiBoosting for Phishing Website Detection
Autor: Abdulhamit Subasi, Emir Kremic
por alejandro_araujo
14 Ago 2020, 21:59
Foros: Inteligencia Artificial
Tema: Sistemas de reconocimiento facial
Respuestas: 1
Vistas: 3766

Sistemas de reconocimiento facial

Título 1: Sistema de reconocimiento facial basado en imágenes con color

Descripción:

El siguiente trabajo tiene como objetivo determinar si es el color en una imagen aporta una mayor precisión al momento de reconocer un rostro.
Como se sabe, el reconocimiento facial ha tenido gran cantidad de aplicaciones hoy en día, se usa para temas de seguridad, procesamiento de vídeos e imágenes, entre otras cosas.
Hay muchas investigaciones para la detección de rostros, en este caso se hará uso del modelo de Viola-Jones, conocido como algoritmo de aprendizaje AdaBoost, este algoritmo permite detectar los rostros en una imagen cuando estos están mirando de manera frontal a la cámara, también permite diferenciar los colores, expresiones, detectar la iluminación de una imagen.

También, en el presente trabajo se está tomando el enfoque de Eigenfaces, este enfoque descompone las imágenes en vectores llamados Eigenfaces, estos vectores contienen la información de los rostros, luego lo que se hace es obtener un “espacio generado” para los rostros guardados, y cuando se quiere reconocer un rostro, se compara el espacio generado del rostro que quieres conocer con un espacio generado de los rostros que ya se habían guardado previamente.
En el presente trabajo también se hace uso de un proceso para mejorar la calidad en una imagen, esto ayuda de cierta manera ya que hace más fácil reconocer un rostro.

Metodología
El primer paso es aumentar la calidad de la imagen para que el sistema pueda reconocer mejor un rostro. Una vez está hecho, se pasa a usar el algoritmo de AdaBoost para el reconocimiento del rostro, lo hace en base a una serie de n clasificadores, estos clasificadores reciben características de tipo Haar, la imagen de entrada y una máquina de aprendizaje, en este caso se usa Máquinas de Soporte Vectorial (SVM). Es en base a este último factor que se diferencia las caras de las no caras.
Imagen
Una vez se obtiene una cara, se pasa a usar el enfoque Eigenfaces para la detección de estos. Los resultados que se obtienen para el espacio de color RGB, HSV y para escala de grises. Para estos 3 casos se obtienen 3 métricas, la sensibilidad (capacidad para clasificar a una imagen como cara), la especificidad (capacidad de clasificar una imagen como no cara y a una persona como no reconocido) y el valor predictivo positivo (probabilidad de que un rostro sea reconocido correctamente). En los que el HSV obtiene un mayor valor positivo predictivo.
Se hacen pruebas para este caso pero haciendo dos tipos diferentes de procesamiento de imágenes, los métodos son: ecualización de histograma y filtrado y ecualización del histograma.
Resultados para ecualización de histograma
Imagen
Resultados para filtrado y ecualización de histograma
Imagen

Conclusiones:

La espacio de colores RGB presenta una mayor probabilidad para reconocer un rostro adecuadamente, pero es menor que el espacio de colores HSV.
El pre-procesamiento de imágenes aumenta la probabilidad de que un rostro sea reconocido con éxito.
Referencias:
Artículo 1: Sistema de reconocimiento facial basado en imágenes con color
Autores: BEATRIZ OMAIRA PEDRAZA PICO, PAOLA RONDÓN, HENRY ARGUELLO.



Título 2: Prototipo de seguridad mediante reconocimiento facial por medio del algoritmo de eigenfaces

Descripción:
En el paper se planea elaborar un prototipo de seguridad usando un algoritmo de reconocimiento llamado PCA, ya que este presenta un mejor porcentaje de precisión frente a otros algoritmos como LDA y DCT. Este algoritmo se planea implementar en Matlab. Este algoritmo obtiene un conjunto de vectores de la imagen de un rostro, estos vectores se llaman “eigenvectors”. También se debe de crear una base de datos que contenga las imágenes de las personas que usarán la aplicación, que vendrían a ser los dueños de un domicilio o un lugar que requiera reconocimiento facial.
Imagen
El administrador de la aplicación le da una contraseña a los usuarios y esta contraseña debe de coincidir con una de las que está guardada en la base de datos, si esta contraseña dada al nuevo usuario es ingresada de manera correcta, el sistema tomará fotos del usuario para añadirlo a la base de datos.
Para aplicar el algoritmo PCA es necesario una serie de pasos
Paso 1: a cada imagen se le debe redimensionar de tal manera que se tenga una imagen cuadrada, es decir, una imagen de N x N. Las imágenes se pasan a escala de grises
Paso 2: Por cada usuario tendremos M fotos por lo que ahora debemos de concatenar las imágenes con un tamaño de N x N x M. Estas serán concatenadas en una matriz.
Paso 3: Se debe de calcular un “rostro promedio” por cada usuario, las imágenes se obtienen de la base de datos.
Paso 4: Se normaliza los promedios, se debe restar el promedio a cada imagen.
Paso 5: La matriz N x N x M se usará por obtener los autovectores.
Este autovector que se guarda en la base de datos será como un identificador para una persona, cuando un nuevo usuario muestre su rostro, se le generará su propio autovector y se hará una diferencia con los autovectores en la base de datos, si esa diferencia es menor a un valor determinado, entonces las personas son las mismas.
Imagen
Imagen que muestra la diferencia de vectores es muy grande y por lo cual el no se valida el usuario.

Para mejorar el rendimiento del sistema se tomaron algunas medidas.
Tamaño: la distancia entre ojos debe estar normalizada, así como también la distancia entre los ojos y la boca.
Rotación en el plano de la imagen: la rotación se hace en pase a los ojos, se rota de tal manera que los ojos siempre estén en una horizontal.
Zona de la cara a utilizar: la imagen se recorta de tal manera que el fondo de la imagen no intervenga en el reconocimiento facial.
Conclusiones
Los autovectores generados por el algoritmo PCA permiten una correcta validación de los usuarios.
Matlab permite la fácil implementación del algoritmo PCA.
La normalización, rotación del plano de la imagen, y la zona de la imagen utilizada permiten obtener una mayor precisión al momento de reconocer un rostro
Paper: PROTOTIPO DE SEGURIDAD MEDIANTE RECONOCIMIENTO FACIAL POR MEDIO DEL ALGORITMO DE EIGENFACES
Autores: Yeison Fernando Arcos Acuña, Diego Armando Moreno Meneses, Wolffang David Niño Pacheco.
por alejandro_araujo
14 Ago 2020, 10:30
Foros: Inteligencia Artificial
Tema: Detección de phishing basado en características de la url
Respuestas: 1
Vistas: 899

Detección de phishing basado en características de la url

Título: Detección de phishing basado en características de la url
Descripcion:
-Trabajos pasados
Existen muchos trabajos para detectar phishing en una url basado en ciertas características, lo que varía en cada trabajo es el algoritmo de machine learning aplicado por el autor. Los algoritmos más usados son de redes neuronales, redes bayesianas, árboles de decisión, support vector machine, en algunos se usa la combinación de más de uno de ellos ("Phishing websites classification using hybrid svm and knn approach”), en otros casos se hace uso de un algoritmo para la optimización de la predicción. Estos se usan para poder entrenar un modelo en base a un conjunto de datos y poder predecir si una url es de phishing o no.
-Problema
El problema que se va a tratar es resolver los ataques de phishing, el cual es un método que consiste en imitar páginas web legítimas de una organización, ya sean bancos, redes sociales, páginas de compras, etc; todo esto con el fin de obtener la información del usuario, esta información puede ser contraseñas, nombres de usuario o detalles de tarjetas de crédito.

El phishing se puede realizar de diferentes maneras, los casos más comunes son por medio de mensajes de correos electrónicos, mensajes de texto o por mensajes a una red social, los cuales contienen url´s que aparentan ser legítimas. Estas direcciones web son hechas por atacantes que te redirección a una página que te pedirá información personal con el fin de robártela.

Una vez se consigue la información del usuario, el atacante puede hacer muchas cosas con esto, robo de dinero, robo de identidad, etc.

Para solucionar este problema se plantea definir características presentes en una url como la edad del dominio, la longitud de la url, la aparición de una dirección ip en el dominio, el ranking de la página en google, etc. Un dataset de estas características permitirá entrenar un modelo de machine learning para predecir si la página es de phishing o no.

-Algoritmos y resultados de la prueba
El autor usa 3 algoritmos de machine learning: árboles de decisión, redes bayesianas y redes neuronales y hace una comparación entre ellos para ver cual tiene mejor resultado.
También hace uso de 2 algoritmos para la selección de atributos, InfoGain y ReliefF, con esto pueden obtener las mejores características y descartar las que no ayudan a entrenar correctamente el modelo. Para aplicar los algoritmos el autor hace uso de la herramienta Weka que facilita la aplicación de algoritmos de machine learning a un conjunto de datos.

Para calcular el porcentaje de precisión del resultado de cada algoritmo se hace uso de la siguiente fórmula =(True posivite + True nevative)/(total de resultados)
Donde:
True positive: indica los resultados en los que se predijo que la url era una página de phishing y realmente si lo era.
False positive: es la cantidad de veces en la que se predijo que la página no era de phishing y si lo era.
False negative: es el caso en el que se predijo que la página no era de phishing y si lo era.
True negative: es la cantidad de veces en la que se predijo que no era una página de phishing y realmente no lo era.

Los experimentos hechos fueron, primero, se obtuvo resultados de los algoritmos de entrenamiento con todas las características, luego se hace uso de los algoritmos InfoGain y ReliefF para seleccionar las mejores características que ayuden el modelo, primero se hace uso de las primeros 5 mejores características, luego de 10 y al final de 15, tanto para el algoritmo InfoGain y ReliefF, lo cuál sería un total de 7 resultados (por cada algoritmo de entrenamiento) en los que se mide la precisión de la predicción y el tiempo que toma entrenar el modelo.
Adicionalmente, si hicieron dos experimentos adicionales, el primero consiste en hacer la intersección de las 15 mejores características del algoritmo InfoGain y ReliefF lo cual daría un total de 10 características. Y en el segundo experimento se tomará la unión de las mejores características obtenidas por ambos algoritmos mencionados anteriormente, lo cual daría un total de 20 características.
Para todos estos casos se corrieron los 3 algoritmos mencionados que son: árboles de decisión, random forest y redes neuronales. Se usarán 2 métricas para medir el rendimiento de un modelo, uno es el porcentaje de precisión explicado anteriormente y el segundo es el tiempo de entrenamiento del modelo.
Los mejores resultados se obtienen haciendo la unión de las mejores características obtenidas por los algoritmos InfoGain y ReliefF con un porcentaje de precisión de 98.11%. El menor resultado tiene una precisión de 89,75% y es obtenido por el algoritmo de Random Forest.
-Conclusiones
Una gran cantidad de características usadas en una url no es mucha ayuda ya que gran parte de ellas no ayuda a obtener buenos resultados y tampoco a entrenar correctamente el modelo.
Los algoritmos de machine learning tienen un alto porcentaje de precisión al momento de predecir si una url es de phishing o no.

Artículo 1:
Phishing Detection Based on Machine Learning and Feature Selection
Autor: Mohammed Almseidin
Artículo 2:
Comparison of Adaboost with MultiBoosting for Phishing Website Detection
Autor: Abdulhamit Subasi, Emir Kremic
por alejandro_araujo
01 Mar 2020, 13:26
Foros: Inteligencia Artificial
Tema: Artificial Intelligence song
Respuestas: 0
Vistas: 396

Artificial Intelligence song

Una agencia digital llamada Space 150 ha creado una canción por medio de la inteligencia artificial. La canción ha sido creada en base al artista Travis Scott.
La canción fue generada usando letras de las canciones del artista en un modelo de generación de texto, las melodías y el ritmo fue creado por medio de programas de redes neuronales.
La canción fue generada por la agencia digital pero presentaba mucho ciertos temas en la canción, en especial el de la comida, la canción tenía frases como la siguiente: ‘I don’t want to fuck your party food’.

Travis Scott AI song. Recuperado de: https://becominghuman.ai/travis-scott-a ... 74af3ba3b7
por alejandro_araujo
01 Mar 2020, 11:53
Foros: Inteligencia Artificial
Tema: Menna, la ia verdaderamente conversacional de Google
Respuestas: 0
Vistas: 625

Menna, la ia verdaderamente conversacional de Google

Google tiene como objetivo crear un asistente artificial que pueda sostener una verdadera conversación. El nombre de este proyecto es Meena.
Sabemos que existen otros asistentes digitales como Alexa o Siri pero ellas funcionan en base a un script de respuesta.
La forma de medir que tan bien un agente puede mantener una conversación se hace por medio de la métrica SSA (service-side aggregation).
Meena obtuvo un porcentaje de 79%. en esta métrica. Otros asistentes como Misuku, que es un bot desarrollado por Pandora bots obtuvo un 56%.
Un dato curioso es que los humanos en promedio obtienen un puntaje de 86% en esta métrica, que es un valor cercano al obtenido por Meena.
Meena is Google’s first truly conversational AI (29 de junio del 2020)
Obtenido de:
https://artificialintelligence-news.com ... tional-ai/