Temas acerca de Inteligencia Artificial
Foto de Usuario
Diego-ucharima

Ranking Troomes
Mensajes: 13
Registrado: 01 Sep 2018, 15:45

Nuevo método se asoma dentro de la 'caja negra' de la IA

Mensaje por Diego-ucharima » 02 Dic 2018, 13:06

Los investigadores ayudan a explicar por qué los algoritmos de aprendizaje automático a veces generan respuestas sin sentido.

La inteligencia artificial, específicamente el aprendizaje automático, es parte de la vida diaria de los usuarios de computadoras y teléfonos inteligentes. Desde autocorrectar errores tipográficos hasta recomendar música nueva, los algoritmos de aprendizaje automático pueden ayudar a hacer la vida más fácil. También pueden cometer errores.

Imagen

Puede ser un desafío para los científicos informáticos descubrir qué fue lo que salió mal en tales casos. Esto se debe a que muchos algoritmos de aprendizaje automático aprenden de la información y hacen sus predicciones dentro de una "caja negra" virtual, lo que deja algunas pistas que los investigadores pueden seguir.

Un grupo de científicos informáticos de la Universidad de Maryland ha desarrollado un enfoque nuevo y prometedor para interpretar los algoritmos de aprendizaje automático. A diferencia de los esfuerzos anteriores, que normalmente intentaban "romper" los algoritmos eliminando palabras clave de las entradas para obtener una respuesta incorrecta, el grupo UMD en cambio reducía las entradas al mínimo necesario para obtener la respuesta correcta. En promedio, los investigadores obtuvieron la respuesta correcta con una entrada de menos de tres palabras.

En algunos casos, los algoritmos modelo de los investigadores proporcionaron la respuesta correcta basada en una sola palabra. Con frecuencia, la palabra o frase de entrada parecía tener poca conexión obvia con la respuesta, revelando información importante sobre cómo reaccionan algunos algoritmos a un lenguaje específico. Debido a que muchos algoritmos están programados para dar una respuesta sin importar lo que ocurra, incluso cuando lo solicite una información sin sentido, los resultados podrían ayudar a los científicos informáticos a construir algoritmos más efectivos que puedan reconocer sus propias limitaciones.

Los investigadores presentarán su trabajo el 4 de noviembre de 2018 en la Conferencia de 2018 sobre Métodos Empíricos en el Procesamiento del Lenguaje Natural.

"Los modelos de caja negra parecen funcionar mejor que los modelos más simples, como los árboles de decisión, pero incluso las personas que escribieron el código inicial no pueden decir exactamente lo que está sucediendo", dijo Jordan Boyd-Graber, autor principal del estudio. y profesor asociado de informática en la UMD. "Cuando estos modelos devuelven respuestas incorrectas o sin sentido, es difícil averiguar por qué. Entonces, en lugar de eso, intentamos encontrar la información mínima que daría el resultado correcto. La entrada promedio fue de aproximadamente tres palabras, pero podríamos reducirla a una una sola palabra en algunos casos ".

En un ejemplo, los investigadores introdujeron una foto de un girasol y la pregunta basada en el texto "¿De qué color es la flor?" como entradas en un algoritmo modelo. Estas entradas dieron la respuesta correcta de "amarillo". Después de reformular la pregunta en varias combinaciones diferentes de palabras, los investigadores encontraron que podían obtener la misma respuesta con "¿flor?" como la única entrada de texto para el algoritmo.

En otro ejemplo, más complejo, los investigadores utilizaron el indicador: "En 1899, John Jacob Astor IV invirtió $ 100,000 para que Tesla desarrollara y produjera un nuevo sistema de iluminación. En cambio, Tesla usó el dinero para financiar sus experimentos en Colorado Springs".

Luego le preguntaron al algoritmo: "¿En qué gastó Tesla el dinero de Astor?" y recibió la respuesta correcta, "experimentos de Colorado Springs". Al reducir esta entrada a la única palabra "did" se obtuvo la misma respuesta correcta.

El trabajo revela información importante sobre las reglas que los algoritmos de aprendizaje automático aplican a la resolución de problemas. Muchos problemas del mundo real con algoritmos se producen cuando una entrada que tiene sentido para los humanos da como resultado una respuesta sin sentido. Al mostrar que también es posible lo contrario, que los insumos sin sentido también pueden dar respuestas correctas y sensatas, Boyd-Graber y sus colegas demuestran la necesidad de algoritmos que puedan reconocer cuando responden a una pregunta sin sentido con un alto grado de confianza.

"La conclusión es que todo este material de aprendizaje automático puede ser bastante estúpido", dijo Boyd-Graber, quien también tiene citas en el Instituto de Estudios Avanzados en Informática de la Universidad de Maryland (UMIACS) y en la Escuela de Información de la UMD. Centro de Estudios y Ciencias del Lenguaje. "Cuando los científicos informáticos entrenan estos modelos, normalmente solo les mostramos preguntas reales u oraciones reales. No les mostramos frases sin sentido ni palabras simples. Los modelos no saben que estos ejemplos deben confundirlos".

La mayoría de los algoritmos se obligarán a proporcionar una respuesta, incluso con datos insuficientes o en conflicto, según Boyd-Graber. Esto podría estar en el centro de algunos de los resultados incorrectos o sin sentido generados por los algoritmos de aprendizaje automático, en los algoritmos modelo utilizados para la investigación, así como en los algoritmos del mundo real que nos ayudan a marcar correos electrónicos no deseados u ofrecer direcciones de conducción alternativas. Comprender más sobre estos errores podría ayudar a los científicos informáticos a encontrar soluciones y construir algoritmos más confiables.

"Demostramos que las modelos pueden ser entrenadas para saber que deben estar confundidas", dijo Boyd-Graber. "Entonces pueden simplemente salir y decir: 'Me has mostrado algo que no puedo entender'".

Además de Boyd-Graber, los investigadores afiliados a UMD que participan en este trabajo incluyen al investigador universitario Eric Wallace; estudiantes de posgrado Shi Feng y Pedro Rodríguez; y el ex estudiante de posgrado Mohit Iyyer (MS '14, Ph.D. '17, ciencias de la computación).

La presentación de la investigación, "Las patologías de los modelos neurales hacen que la interpretación sea difícil", Shi Feng, Eric Wallace, Alvin Grissom II, Pedro Rodríguez, Mohit Iyyer y Jordan Boyd-Graber se presentarán en la Conferencia de 2018 sobre Métodos empíricos en el procesamiento del lenguaje natural el 4 de noviembre de 2018.

Este trabajo fue apoyado por la Agencia de Proyectos de Investigación Avanzada de la Defensa (Premio No. HR0011-15-C-011) y la Fundación Nacional de Ciencias (Premio No. IIS1652666). El contenido de este post no refleja necesariamente las opiniones de estas organizaciones.

Fuente: ScienceDaily.


Diego Ucharima Ortiz
Universidad Nacional de ingeniería
Responder