Se puede desarrollar experiencias conversacionales naturales y ricas.Ademas de ofrecer a los usuarios nuevas formas de interactuar con su producto mediante la creación de interfaces conversacionales de voz y texto, como aplicaciones de voz y chatbots, con tecnología de inteligencia artificial.
Nos permite conectar con los usuarios de un sitio web, la aplicación móvil, el Asistente de Google, Amazon Alexa, Facebook Messenger y otras plataformas y dispositivos populares.
¿Interesante verdad ? .Dejo el link oficial , en donde rápidamente podemos iniciar con nuestros proyectos de chatbots basados en IA
https://dialogflow.com/
Se encontraron 7 coincidencias
- 09 Jun 2018, 02:07
- Foros: Inteligencia Artificial
- Tema: DialogFlow de Google
- Respuestas: 0
- Vistas: 754
- 09 Jun 2018, 02:01
- Foros: Inteligencia Artificial
- Tema: Arboles de decisiones con IBM SPSS MODELER
- Respuestas: 0
- Vistas: 576
Arboles de decisiones con IBM SPSS MODELER
Un árbol de decisión es un modelo de predicción utilizado en diversos ámbitos que van desde la inteligencia artificial hasta la Economía. Dado un conjunto de datos se fabrican diagramas de construcciones lógicas, muy similares a los sistemas de predicción basados en reglas, que sirven para representar y categorizar una serie de condiciones que ocurren de forma sucesiva, para la resolución de un problema.
Comparto un manual totalmente completo utilizando arboles de decisiones en IBM SPSS MODELER .En el ,podrán encontrar casos de aplicación.
Comparto un manual totalmente completo utilizando arboles de decisiones en IBM SPSS MODELER .En el ,podrán encontrar casos de aplicación.
- 09 Jun 2018, 01:57
- Foros: Inteligencia Artificial
- Tema: MODELO DE REGRESION CON SOFTWARE DE IBM
- Respuestas: 0
- Vistas: 713
MODELO DE REGRESION CON SOFTWARE DE IBM
En estadística, el análisis de la regresión es un proceso estadístico para estimar las relaciones entre variables. Incluye muchas técnicas para el modelado y análisis de diversas variables, cuando la atención se centra en la relación entre una variable dependiente y una o más variables independientes (o predictoras).
Dejo una guia completa sobre estos modelos usando el software IBM SPSS MODELER
Dejo una guia completa sobre estos modelos usando el software IBM SPSS MODELER
- 04 May 2018, 22:44
- Foros: BI & Data Sciences
- Tema: La granja de Hadoop
- Respuestas: 0
- Vistas: 1029
La granja de Hadoop
Al hablar de big data ,es necesario hablar de infraextructura .Un "fierro" necesario que nos provea la potencia computacional para poder realizar la explotación de datos de Teras de información . Y aquí aparece Hadoop (Apache Hadoop) , que es básicamente un software open source que nos permite trabajar en modo Cluster para tener "Potencia" en el procesamiento de los datos .Y con el se crea todo un ecosistema.Tal vez los mas conocidos sean aquellos cuyos logotipos tengan animales como :
Pig.-Plataforma para crear MapReduce
Hive.-Infraestructura de almacenamiento de datos
Impala.-Motor de consultas de Sql de Cloudera
Sin embargo , existe una diversidad de potentes herramientas que son utilizadas dependiendo de las necesidades de la aplicación .Puede ser Batch ,Real time , pseudo-real-time .
Recomiendo revisar el siguiente articulo , en el cual nos da una mejor visión de que tipo de herramientas usar en cada caso teniendo como base de la infraextructura a Hadoop:
https://www.beeva.com/beeva-view/bigdat ... ig-data-2/
Pig.-Plataforma para crear MapReduce
Hive.-Infraestructura de almacenamiento de datos
Impala.-Motor de consultas de Sql de Cloudera
Sin embargo , existe una diversidad de potentes herramientas que son utilizadas dependiendo de las necesidades de la aplicación .Puede ser Batch ,Real time , pseudo-real-time .
Recomiendo revisar el siguiente articulo , en el cual nos da una mejor visión de que tipo de herramientas usar en cada caso teniendo como base de la infraextructura a Hadoop:
https://www.beeva.com/beeva-view/bigdat ... ig-data-2/
- 04 May 2018, 22:14
- Foros: Startups & Innovación
- Tema: Análisis de la cesta de la compra
- Respuestas: 0
- Vistas: 728
Análisis de la cesta de la compra
Es una técnica habitual utilizada en sectores de Distribución y Gran Consumo (METRO , WONG ,etc) y otros sectores que tengan canal online de distribución(Editoriales, Audiovisual,etc).
Básicamente consiste en encontrar reglas de asociación que relacionan unos productos con otros en una compra .Esto se puede lograr analizando un gran volumen de compras entre distintos clientes permitiéndonos conocer más sobre los hábitos de consumo .
Un ejemplo muy habitual es el de "Pañales y Cerveza".Aparentemente, los clientes masculinos, cuando compraban pañales los viernes por la noche, tenían además una gran tendencia a adquirir también cerveza. De ahí surgió toda una amplia gama de teorías psicológicas sobre cómo los hombres, cuando eran enviados a por pañales al supermercado, asociaban la idea con la de obtener alguna recompensa para ellos, o unían viernes noche con cerveza y, a pesar de ser ya padres, proseguían con el comportamiento aprendido de solteros. A resultas de esa recién descubierta correlación, la gran superficie decide mover la cerveza al lado de los pañales, y obtiene gracias a ello un incremento de ventas.
Dentro de nuestro proyecto de la generación de un sistema de recomendación de películas , estamos evaluando el uso de este algoritmo para ofrecer recomendaciones a los nuevos usuarios de acuerdo a los patrones encontrados en usuarios con historial de películas .
Dejare mayor información en los siguientes links :
http://findialeyva.com/analisis-de-la-c ... la-compra/
https://www.enriquedans.com/2006/08/pan ... rveza.html
Básicamente consiste en encontrar reglas de asociación que relacionan unos productos con otros en una compra .Esto se puede lograr analizando un gran volumen de compras entre distintos clientes permitiéndonos conocer más sobre los hábitos de consumo .
Un ejemplo muy habitual es el de "Pañales y Cerveza".Aparentemente, los clientes masculinos, cuando compraban pañales los viernes por la noche, tenían además una gran tendencia a adquirir también cerveza. De ahí surgió toda una amplia gama de teorías psicológicas sobre cómo los hombres, cuando eran enviados a por pañales al supermercado, asociaban la idea con la de obtener alguna recompensa para ellos, o unían viernes noche con cerveza y, a pesar de ser ya padres, proseguían con el comportamiento aprendido de solteros. A resultas de esa recién descubierta correlación, la gran superficie decide mover la cerveza al lado de los pañales, y obtiene gracias a ello un incremento de ventas.
Dentro de nuestro proyecto de la generación de un sistema de recomendación de películas , estamos evaluando el uso de este algoritmo para ofrecer recomendaciones a los nuevos usuarios de acuerdo a los patrones encontrados en usuarios con historial de películas .
Dejare mayor información en los siguientes links :
http://findialeyva.com/analisis-de-la-c ... la-compra/
https://www.enriquedans.com/2006/08/pan ... rveza.html
- 04 May 2018, 21:59
- Foros: BI & Data Sciences
- Tema: Python para la generación de modelos estadísticos
- Respuestas: 0
- Vistas: 878
Python para la generación de modelos estadísticos
Luego de tener la data preparada podemos iniciar probando diversos modelos según los tipos de variables que tengamos .
Para ello podemos utilizar el framework de google TensorFlow , que tiene una increíble robustes y tal vez una curva de aprendizaje de algunas semanas (opinion personal ) para empezar a generar algún modelo .Sin embargo existen otras opciones más simples y eficaces para iniciarnos como es scikit-learn,
una librería que incluye los principales modelos como :
Clasificaciones: Identificar las categorías a que cada observación del conjunto de datos pertenece.
Regresiones: Predecire el valor continuo para cada nuevo ejemplo.
Agrupaciones: Agrupación automática de objetos similares en un conjunto.
Reducción de dimensiones: Reducir el número de variables aleatorias a considerar.
Selección de Modelos: Comparar, validar y elegir parámetros y modelos.
Preprocesamiento: Extracción de características a analizar y normalización de datos.
Pueden encontrar mayor información en la documentación oficial de esta librería
http://scikit-learn.org/stable/
Para ello podemos utilizar el framework de google TensorFlow , que tiene una increíble robustes y tal vez una curva de aprendizaje de algunas semanas (opinion personal ) para empezar a generar algún modelo .Sin embargo existen otras opciones más simples y eficaces para iniciarnos como es scikit-learn,
una librería que incluye los principales modelos como :
Clasificaciones: Identificar las categorías a que cada observación del conjunto de datos pertenece.
Regresiones: Predecire el valor continuo para cada nuevo ejemplo.
Agrupaciones: Agrupación automática de objetos similares en un conjunto.
Reducción de dimensiones: Reducir el número de variables aleatorias a considerar.
Selección de Modelos: Comparar, validar y elegir parámetros y modelos.
Preprocesamiento: Extracción de características a analizar y normalización de datos.
Pueden encontrar mayor información en la documentación oficial de esta librería
http://scikit-learn.org/stable/
- 04 May 2018, 21:50
- Foros: BI & Data Sciences
- Tema: Las librerías de Python básicas en la ciencia de datos
- Respuestas: 0
- Vistas: 927
Las librerías de Python básicas en la ciencia de datos
No es novedad para nadie que python se ha vuelto sumamente poderoso dentro de la ciencia de datos.
Algunas de las librerías que podemos empezar a utilizar son :
Numpy.-Nos permite utilizar objetos como matrices multidimensionales y hacer operaciones de álgebra lineal.
Matplotlib.- es la librería más popular en Python para visualizaciones y gráficos.
Pandas.-Libería que nos permite trabajar con datos estructurados de una forma más rápida y expresiva. Aquí aparece el famoso Dataframe.
Con estas librerías podemos empezar a realizar la limpieza de datos y a generar el famoso TABLÓN , input esencial dentro de la generación de modelos .
Para mayor información pueden ingresar a :
https://relopezbriega.github.io/blog/20 ... -de-datos/
Algunas de las librerías que podemos empezar a utilizar son :
Numpy.-Nos permite utilizar objetos como matrices multidimensionales y hacer operaciones de álgebra lineal.
Matplotlib.- es la librería más popular en Python para visualizaciones y gráficos.
Pandas.-Libería que nos permite trabajar con datos estructurados de una forma más rápida y expresiva. Aquí aparece el famoso Dataframe.
Con estas librerías podemos empezar a realizar la limpieza de datos y a generar el famoso TABLÓN , input esencial dentro de la generación de modelos .
Para mayor información pueden ingresar a :
https://relopezbriega.github.io/blog/20 ... -de-datos/