Aprendizaje Profundo: La caja negra de la Inteligencia Artificial

buscandolaverdad.es


Nadie, ni siquiera los desarrolladores saben realmente cómo los algoritmos más avanzados de inteligencia artifical hacen lo que hacen. Eso podría ser un problema.
En 2016, un extraño automóvil de conducción automática fue lanzado en las tranquilas calles del condado de Monmouth, Nueva Jersey. El vehículo experimental, desarrollado por los investigadores del fabricante de chips Nvidia, no se veía diferente de otros autos autónomos, pero no era nada similar a lo demostrado por Google, Tesla o General Motors, y mostró el creciente poder de la inteligencia artificial. El coche no siguió una sola instrucción proporcionada por un ingeniero o un programador. En su lugar, se basó enteramente en un algoritmo que él mismo se había enseñado para conducir viendo cómo lo hacía un humano.
Conseguir que un coche condujera de esta manera fue una hazaña impresionante. Pero también es un poco inquietante, ya que no está completamente claro cómo el automóvil toma sus decisiones. La información de los sensores del vehículo va directamente a una enorme red de neuronas artificiales que procesan los datos y luego entregan los comandos necesarios para operar el volante, los frenos y otros sistemas. El resultado parece coincidir con las respuestas que esperarías de un conductor humano. Pero ¿qué pasaría si un día hiciera algo inesperado: se estrellara contra un árbol o se detuviera con la luz en verde? Tal y como están las cosas ahora, podría ser difícil averiguar por qué. El sistema es tan complicado que incluso los ingenieros que lo diseñaron pueden tener dificultades para aislar la razón de una sola acción. Y no se puede preguntar: no hay forma obvia de diseñar un sistema de este tipo para que siempre se pudiera explicar por qué hizo lo que hizo.
La misteriosa mente de este vehículo señala un problema inminente con la inteligencia artificial.La tecnología subyacente de IA del automóvil, conocida como aprendizaje profundo, la cuál ha demostrado ser muy poderosa para resolver problemas en los últimos años y ha sido ampliamente implementada para tareas como la clasificación de imágenes, el reconocimiento de voz y la traducción de idiomas.
El aprendizaje profundo es especialmente críptico debido a su increíble complejidad. Se inspira más o menos en el proceso por el cual las neuronas en un cerebro aprenden en respuesta a la entrada. Muchas capas de neuronas simuladas y sinapsis son datos etiquetados y su comportamiento se sintoniza hasta que aprenden a reconocer, digamos, un gato en una fotografía. Pero el modelo aprendido por el sistema está codificado en los pesos de muchos millones de neuronas, y por lo tanto es muy difícil de examinar. Cuando una red de aprendizaje profundo reconoce a un gato, por ejemplo, no está claro si el sistema puede enfocarse en los bigotes, las orejas o incluso la manta del gato en una imagen.

El aprendizaje profundo, el más común de estos enfoques, representa una manera fundamentalmente diferente de programar computadoras. “Es un problema que ya es relevante, y va a ser mucho más relevante en el futuro”, dice Tommi Jaakkola, profesor del MIT que trabaja en aplicaciones de aprendizaje automático. “Ya sea una decisión de inversión, una decisión médica, o tal vez una decisión militar, no quisieras confiar en un método de  caja negra”.
Ya existe un argumento de que ser capaz de interrogar a un sistema de IA sobre cómo llegó a sus conclusiones es un derecho legal fundamental. A partir del verano de 2018, la Unión Europea puede exigir que las empresas puedan dar a los usuarios una explicación de las decisiones que los sistemas automatizados alcanzan. Esto podría ser imposible, incluso para sistemas que parecen relativamente simples en la superficie, como las aplicaciones y los sitios web que utilizan el aprendizaje profundo para publicar anuncios o recomendar canciones. Los ordenadores que ejecutan esos servicios se han programado y lo han hecho de formas que no podemos entender. Incluso los ingenieros que construyen estas aplicaciones no pueden explicar completamente su comportamiento.
Nunca antes hemos construido máquinas que operan de manera que sus creadores no entienden. ¿Qué tan bien podemos esperar comunicarnos – y llevarnos bien – con máquinas inteligentes que podrían ser impredecibles e inescrutables?
En 2015, un grupo de investigación en el Mount Sinai Hospital en Nueva York se inspiró para aplicar el aprendizaje profundo a la vasta base de datos del hospital de los registros de pacientes. Este conjunto de datos presenta cientos de variables sobre los pacientes, extraídos de los resultados de las pruebas, visitas al médico, etc. El programa resultante, que los investigadores llamaron Deep Patient, fue entrenado usando datos de alrededor de 700,000 individuos, y cuando fue probado en nuevos registros, resultó increíblemente bueno en la predicción de la enfermedad. Sin ninguna instrucción experta, Deep Patient había descubierto patrones ocultos en los datos del hospital que parecían indicar cuando la gente estaba en el camino a una amplia gama de dolencias, incluyendo el cáncer de hígado.
Al mismo tiempo, Deep Patient es un poco desconcertante. Parece anticipar la aparición de trastornos psiquiátricos como la esquizofrenia sorprendentemente bien. Pero dado que la esquizofrenia es notoriamente difícil de predecir para los médicos, Joel Dudley, líder del proyecto Deep Patient se preguntó cómo era esto posible. Todavía no lo sabe. La nueva herramienta no ofrece ninguna pista sobre cómo lo hace.
Si algo como Deep Patient realmente va a ayudar a los médicos, idealmente les dará la razón de su predicción, para tranquilizarlos de que es precisa y para justificar, digamos, un cambio en las drogas que a alguien le están recetando. Podemos construir estos modelos”, dice Dudley tristemente, “pero no sabemos cómo funcionan”.
Pero Nvidia está trabajando para abrir esta caja negra. Se ha desarrollado una manera de resaltar visualmente a lo que el sistema está prestando atención. Como se ha explicado en un artículo publicado, la arquitectura de redes neuronales desarrollada por los investigadores de Nvidia está diseñada para que pueda destacar las áreas de una imagen de vídeo que contribuyen más fuertemente al comportamiento de la red neuronal profunda del coche. Sorprendentemente, los resultados muestran que la red se está enfocando en los bordes de caminos, las marcas de carriles y los autos estacionados, justo el tipo de cosas a las que un buen conductor humano desearía prestar atención.

“Lo revolucionario de esto es que nunca le dijimos directamente a la red que se preocupara por estas cosas”, escribió en un blog Urs Muller, el arquitecto jefe de Nvidia para automóviles autodirigidos.
No es una explicación completa de cómo las razones de la red neuronal, pero es un buen comienzo. Como Muller dice: “No puedo explicar todo lo que necesito que haga el auto, pero puedo mostrarlo, y ahora puede mostrarme lo que aprendió”.
Támbien la Agencia de Investigación de Proyectos Avanzados de Defensa (DARPA), que realiza investigaciones a largo plazo para los militares estadounidenses, financia varios esfuerzos de investigación similares a través de un programa llamado Explainable Artificial Intelligence (XAI).

Un equipo seleccionado para recibir financiamiento de DARPA proviene de Charles River Analytics, una compañía que desarrolla herramientas de alta tecnología para varios clientes, incluyendo el ejército estadounidense. Este equipo está explorando nuevos sistemas de profundización que incorporan una explicación, como aquellos que destacan áreas de una imagen que parecen más relevantes para una clasificación. Los investigadores también están experimentando con interfaces de computadora que hacen que el funcionamiento de sistemas de aprendizaje de máquina sea más explícito con datos, visualizaciones e incluso explicaciones de lenguaje natural.
Visto en : La Verdad Nos Espera

Comentarios

Entradas populares