Written by 1:03 PM Inteligencia Artificial Views: 11

El oscuro secreto de la Inteligencia Artificial

Nvidia inició su experimento de vehículo autónomo el año pasado, pero a diferencia de la ruta que ha seguido Tesla, Google o General Motors, en esta ocasión el experimento inició con un conductor humano que manejó el coche por un cierto numero de horas, con lo cual el sistema de inteligencia artificial aprendió cómo conducir. No hubo programación al sistema para manejar, sino para aprender cómo hacerlo a partir del comportamiento humano.

Esta demostración de inteligencia artificial y Deep Learning resulta impresionante a la vez que inquietante. Nadie tiene claro cómo es que el sistema aprende determinados detalles y toma ciertas decisiones. La información de los sensores del vehículo es alimentada a una gran red artificial de neuronas que procesa los datos y genera decisiones, de manera que puede operar el vehículo tal como lo haría un humano, pero incluso los ingenieros que crearon el sistema tienen muchos problemas para explicar la razón de la toma de una sola decisión.

El misterio de la “mente” de este vehículo nos lleva a un problema grande con la inteligencia artificial. Esta inteligencia que descansa en la tecnología conocida como Deep Learning, ha demostrado que es muy poderosa para resolver problemas y ha resuelto tareas como la interpretación de imágenes, reconocimiento de voz y traducción de idiomas. Existe la previsión de que estas técnicas sean capaces de diagnosticar enfermedades mortales, tomar decisiones de inversión millonarias y transformar muchas otras industrias, pero esto no sucederá a menos que logremos entender cómo se toman las decisiones del sistema en su totalidad; de otra manera no podremos predecir o minimizar los fallos. Esa es la razón por la que el auto de Nvidia es experimental.

Nunca antes hemos sido incapaces de explicar cada uno de los pasos y procesos en la generación de una acción de una máquina. ¿Cómo esperamos comunicarnos con sistemas más complejos que pueden ser impredecibles e inexplicables?

En 2015 un grupo de investigadores del Hospital Monte Sinaí, en Nueva York aplicaron Deep Learning a la gran base de datos de los pacientes del hospital, la cual incluye cientos de variables, que se generan de los resultados de exámenes, visitas de los doctores, etcétera. Este experimento uso los datos de más de 700,000 personas y logró predecir enfermedades de manera notable. Sin instrucciones de un experto (entrenamiento médico) el sistema denominado Deep Patient descubrió patrones ocultos en los datos que indicaban cuando el paciente desarrollaría enfermedades como cáncer de hígado.

A la vez, Deep Patient es un poco retador. Parece que puede anticipar enfermedades psiquiátricas como la esquizofrenia de manera muy exacta, pero ya que esta enfermedad mental es notablemente difícil de predecir para los médicos, el equipo se pregunta aún cómo puede hacerlo.

¿Tendremos que pensar que dentro de la Inteligencia Artificial hay un grado de intuición?

Con información del MIT Technology Review.

Visited 11 times, 1 visit(s) today
Close