fbpx
3 predicciones sobre IA en 2019
3 predicciones sobre IA en 2019

3 predicciones sobre IA en 2019

Por Darío Gil, COO y Vicepresidente de IA y Quantum en IBM Research

Durante más de 70 años, IBM Research ha inventado, explorado e imaginado el futuro. Hemos sido pioneros en el campo de la Inteligencia Artificial (IA) desde sus inicios. Estuvimos allí cuando se lanzó el campo en el famoso taller de Dartmouth de 1956.

Apenas tres años después, el experto de IBM y gran pionero en la computación, Arthur Samuel, acuñó el término aprendizaje automático. Desde entonces, nuestra mirada siempre se ha fijado en lo que sigue para nosotros y cómo llegaremos ahí.  

Destacamos parte del trabajo de este año en tres áreas clave: avanzar, escalar y confiar en la Inteligencia Artificial y, a medida que nos centramos en el futuro, algunas predicciones sobre lo que está por venir.

Por mucho que vimos avances importantes en 2018, sabemos que el próximo año traerá aún más progreso para la industria de IA. Aquí hay tres tendencias por las que estamos esperando:

1. La causalidad reemplazará cada vez más las correlaciones

Todo el mundo sabe que el canto del gallo al amanecer no “causa” que salga el sol y que, a la inversa, al encender un interruptor sí se enciende la luz. Si bien estas intuiciones sobre la estructura causal del mundo son parte integral de nuestras acciones y juicios cotidianos, la mayoría de nuestros métodos de IA actuales se basan fundamentalmente en las correlaciones y carecen de una comprensión profunda de la causalidad.

Los métodos de inferencia causal emergentes nos permiten inferir estructuras causales a partir de datos, seleccionar intervenciones de manera eficiente para probar relaciones causales putativas y tomar mejores decisiones, aprovechando el conocimiento de la estructura causal. En 2019, se espera que las técnicas de modelo causal emerjan como actores centrales en el mundo de la IA.

2. IA de confianza ocupará un lugar central

Este año varias organizaciones respondieron a las violaciones de datos y las preocupaciones de privacidad del consumidor mediante el establecimiento de juntas consultivas de ética. Así, hemos visto una mayor inversión en investigación en los “pilares de confianza” (equidad algorítmica, explicabilidad, solidez, transparencia), junto con mayores esfuerzos en el despliegue de IA para el bien social.

En 2019 comenzaremos a ver que estos esfuerzos se vuelven fundamentales para la forma en que las compañías construyen, entrenan y despliegan tecnologías de Inteligencia Artificial. Esperamos ver un enfoque especial en la transferencia de avances de investigación en este espacio a productos y plataformas reales, junto con un énfasis en fomentar la diversidad y la inclusión en equipos técnicos para garantizar que muchas voces y perspectivas guíen el progreso tecnológico.

3. Quantum podría brindar asistencia a la IA

En 2019 veremos una aceleración de la tracción en la investigación y experimentación cuántica, y una nueva investigación sobre cómo la computación cuántica puede potencialmente desempeñar un papel en la capacitación y ejecución de modelos de IA.

Un elemento central de los algoritmos cuánticos es la explotación de espacios de estados cuánticos exponencialmente grandes a través de enredos e interferencias controlables. A medida que crece la complejidad de los problemas de la IA, la computación cuántica, a la que miles de organizaciones ya están accediendo a través de los servicios de computación cuántica en la nube de IBM, podría cambiar la forma en que abordamos las tareas computacionales de la IA.

Confianza en la IA

Dado que los sistemas de IA se utilizan cada vez más para apoyar la toma de decisiones, es imperativo que los sistemas de IA sean justos e imparciales. Sin embargo, eliminar el sesgo es un desafío, ya que los datos utilizados para entrenar los sistemas de IA a menudo contienen correlaciones institucionales y sociales intrínsecas que los métodos de aprendizaje estadístico capturan y recapitulan.

IBM Research AI construyó un nuevo enfoque para combatir el sesgo, en el que los datos de entrenamiento se transforman para minimizarlo, de manera que cualquier algoritmo de IA que luego se aprende, perpetuará la menor inequidad posible. Al aplicar este método a dos grandes conjuntos de datos públicos, nuestro equipo pudo reducir sustancialmente la discriminación, sin una reducción significativa en la precisión del sistema.

Finalmente, los modelos modernos de aprendizaje automático pueden lograr una precisión de predicción sin precedentes, pero también son sorprendentemente vulnerables a ser engañados por insumos maliciosos cuidadosamente diseñados llamados “ejemplos adversos”. Por ejemplo, un hacker puede alterar imperceptiblemente una imagen tal que un modelo de aprendizaje profundo se engaña al clasificarlo en cualquier categoría que el atacante desee. Cada día se desarrollan nuevos ataques de este tipo en una amplia gama de tareas, desde el reconocimiento de voz hasta el procesamiento del lenguaje natural.

Como un paso clave para protegerse contra estos ataques, IBM Research AI ha propuesto una nueva medida de robustez certificada y sin agresión de ataques llamada CLEVER, que se puede utilizar para evaluar la robustez de una red neural contra ataques.

Comentarios de Facebook