fbpx
El oscuro secreto en el corazón de la IA
El oscuro secreto en el corazón de la IA

El oscuro secreto en el corazón de la IA

Por Will Knight, MIT Technology Review

El año pasado un extraño automóvil autónomo fue lanzado a conducir por las tranquilas carreteras del condado Monmouth, Nueva Jersey. El vehículo, desarrollado por investigadores de Nvidia, no lucía distinto de otros autos autónomos, pero lo era: no siguió una sola instrucción proporcionada por algún ingeniero o programador, pues se basaba por completo en un algoritmo que se había enseñado a conducir por sí mismo al observar a un humano hacerlo.

¿Impresionante? Sí, pero también inquietante, ya que no queda del todo claro cómo el automóvil toma sus decisiones. La información de los sensores del vehículo va directamente a una enorme red de neuronas artificiales que procesan los datos y luego entregan comandos para operar el volante, los frenos y otros sistemas. Pero, ¿qué pasaría si un día hiciera algo inesperado como estrellarse contra un árbol o detenerse ante una luz verde? Los ingenieros que lo diseñaron jamás podrían descubrir qué fue lo que sucedió porque el sistema es tan complicado que no serían capaces de aislar los motivos de la acción.

Con el avance de la tecnología, muy pronto estaremos cruzando un umbral más allá del cual el uso de la Inteligencia Artificial requerirá un salto de fe. Claro, nosotros los humanos tampoco podemos explicar realmente nuestros procesos de pensamiento, pero encontramos formas de confiar y medir intuitivamente a las personas. ¿Será eso posible con máquinas que piensan y toman decisiones de manera diferente a nosotros?

Nunca antes hemos construido máquinas que operen en formas que sus creadores no entiendan. ¿Qué tan bien podemos esperar comunicarnos y llevarnos bien con máquinas inteligentes que podrían ser impredecibles e inescrutables?

En 2015, un grupo de investigación del Hospital Mount Sinai en Nueva York se inspiró para aplicar el deep learning en una amplia base de datos de registros de pacientes del hospital. Este conjunto de datos presenta cientos de variables en pacientes extraídas de los resultados de pruebas, visitas al médico, etcétera. El programa resultante, que los investigadores llamaron Deep Patient, se entrenó con datos de aproximadamente 700 mil individuos y, cuando se puso a prueba, demostró ser increíblemente bueno para predecir enfermedades. Sin ninguna instrucción experta, Deep Patient había descubierto patrones ocultos en los datos del hospital que parecían indicar cuando las personas estaban en camino a presentar una amplia gama de enfermedades, incluido el cáncer de hígado.

Un paso gigantesco para la medicina. Sin embargo, al mismo tiempo, Deep Patient es un poco desconcertante. Esta IA parece anticipar también la aparición de trastornos psiquiátricos como la esquizofrenia, pero para los médicos diagnosticarla es sumamente difícil. ¿Cómo lo hace? Hasta el momento nadie lo sabe y los médicos no se sienten confiados de hacer este tipo de diagnósticos sin entender los motivos. Actualmente se pueden construir modelos de diagnóstico, pero son peligrosos porque nadie sabe cómo funcionan.

¿Qué podemos hacer desde el desconocimiento?

Conocer el razonamiento de la Inteligencia Artificial será crucial para que la tecnología resulte útil y se vuelva parte de nuestras vidas. Sin embargo, como muchos aspectos del comportamiento humano, tal vez no sea posible que la IA explique todo lo que hace.

Incluso si alguien puede darte una explicación razonable de sus acciones, puede que esté incompleta y lo mismo podría suceder con esta tecnología. Puede que sus acciones sean parte de la naturaleza de su inteligencia y que sólo una parte esté expuesta a una explicación racional, pero existen motivos instintivos, subconscientes e inescrutables que están fuera de nuestro entendimiento, como sucede con los seres humanos.

Por ello, para confiar en el criterio de una IA será necesario que incorporemos la inteligencia social. Tal y como la sociedad se basa en un contrato de comportamiento esperado, tendremos que diseñar sistemas de Inteligencia Artificial que respeten y se ajusten a nuestras normas sociales; es importante que la toma de decisiones de estas máquinas sea consistente con nuestros juicios éticos.

 

Comentarios de Facebook