fbpx

Predicciones sobre la IA en el 2022: la gran humildad de la IA

Tras varios años de tratar (y siempre fracasar) de estar a la altura del despliegue publicitario, la inteligencia artificial fue profundamente doblegada en el 2021 por la opinión pública. Por fortuna, los científicos de datos están reconociendo la fragilidad del poder de la toma de decisiones de la IA y han creado controles compensatorios. Estos incluyen la IA Auditable y la IA Humilde, y mis predicciones sobre estas para el 2022 son que las veremos unirse a la IA Explicable y la IA Ética bajo el paraguas de la IA Responsable, el estándar de oro que debiera utilizarse para desarrollar sistemas de inteligencia artificial confiables y seguros.

Pero primero revisemos los conceptos de la IA Auditable y la IA Humilde, los cuales se predice que se utilizarán ampliamente en el 2022.

La inteligencia artificial se ha convertido en un problema real

Recapitulemos un par de puntos sobre lo que sucedió con la IA en el 2021. La adopción de la IA se disparó a lo largo de la pandemia. Una encuesta de PwC encontró que el 86 % de las compañías encuestadas afirmaron que la IA se convirtió en una “tecnología de uso general” en su compañía en el 2021. Algunas de las fallas de la IA fueron dolorosamente aparentes en el 2021 en una infinidad de artículos, podcasts y conversaciones negativos. El futurista, Bernard Marr, creó una conversación concisa sobre los impactos negativos de la IA, incluyendo:

  • Prejuicios acerca de la IA
  • Pérdida de algunos empleos
  • Un cambio en la experiencia humana
  • Hackeo acelerado
  • Terrorismo de la IA

El camino hacia delante: ética desde el diseño

El 15 de septiembre de 2021 el mundo avanzó significativamente hacia lograr una IA Responsable con el lanzamiento de IEEE 7000, el primer estándar que, tal como lo describe Politico AI, “enseñará a las compañías tecnológicas a desarrollar tecnología que generará valor humano y social, en vez de solo dinero”.

Sarah Spiekermann, de la Universidad de Economía y Negocios de Viena, quien participó en el esfuerzo de IEEE 7000, afirmó en Politico que el estándar determinará que una IA “buena” será aquella que brinde a las compañías control sobre:

  • La calidad de los datos utilizados en el sistema de IA
  • Los procesos de selección que alimentan la IA
  • El diseño de algoritmos
  • La evolución de la lógica de la IA
  • “Las mejores técnicas disponibles para un nivel suficiente de transparencia respecto a la manera en que la IA aprende y llega a sus conclusiones”, por citar a Sarah Spiekermann.

Considero que la transparencia y la ética desde el diseño es el único camino que seguir y con el IEEE 7000, parece que este objetivo podría cumplirse en el futuro próximo.

La IA Auditable y la IA Humilde

Para desarrollar sistemas de IA que cumplan con la implementación de los estándares de la IA Responsable como el IEEE 7000, dos ramas nuevas de la IA se generalizarán en el 2022.

  • La IA Auditable es una inteligencia artificial que deja rastro de cada detalle sobre sí misma, incluyendo todos los puntos arriba mencionados: datos, variables, transformaciones y procesos de modelos, tales como aprendizaje automático, diseño de algoritmos y lógica de modelos. La IA Auditable debe estar respaldada por infraestructuras de desarrollo de modelos firmemente establecidas, como las infraestructuras de cadena de bloques que FICO utiliza para este fin. Básicamente, la IA Auditable cumple el requisito de transparencia del estándar IEEE 7000.

Aquí, mi predicción es que las aspiraciones de lograr una IA Responsable dejarán de ser promesas vacías y se convertirán en medidas de gobernanza de desarrollo de modelos que sean oficiales, se transcriban programáticamente y estén respaldados por la tecnología de cadena de bloques. De igual importancía, la IA Auditable ofrece pruebas de su adherencia a los estándares de desarrollo de modelos de la IA Responsable y apoya directamente su función conectada, la IA Humilde.

  • La IA Humilde es una inteligencia artificial que sabrá que no está segura sobre la respuesta correcta. La IA Humilde se enfoca en la incertidumbre de las decisiones de IA y utiliza medidas de incertidumbre (como una puntuación numérica de la incertidumbre) para cuantificar los niveles de confianza del modelo en su propia toma de decisiones, con detalles sobre la decisión individual y el elemento de los datos.

En otras palabras, La IA Humilde nos ayuda a confiar más en cada puntuación que produce y el consumidor que afecta, no solo en la precisión de la puntuación misma en un grupo completo de consumidores.

Pese a que he escrito artículos de blog sobre la IA Humilde en el pasado, observo un movimiento que se aleja por completo de los modelos complejos para determinar con mayor exactitud cuándo utilizar un modelo más complejo o un modelo menos complejo que tenga mejor evidencia de apoyo. Pienso que en el 2022 los modelos se analizarán y evaluarán por cada transacción con puntuaciones de confianza asignadas. Esto proporcionará a las personas una guía explícita sobre cómo, cuándo y si deben utilizarse los resultados de un modelo específico en la toma de decisiones, en particular si la inteligencia artificial muestra que el modelo es más incierto respecto a las decisiones tomadas sobre algún tipo de transacciones o clientes.

La capacidad de determinar si un modelo es adecuado variará entre los ejemplos calificados; p. ej., para algunas clientes el modelo es muy cierto y tiene gran confianza estadística, pero para otros no. Este es un componente fundamental de la IA Responsable, tal que cuando la confianza de un modelo es insuficiente, esos clientes pueden ser calificados por un modelo alternativo que tenga mejor confianza estadística y, por lo tanto, recibir un resultado más justo. Esto se alinea directamente con el IEEE 7000 y aprovecha el hecho de que la toma de decisiones del modelo de IA puede ser más o menos cierta para diferentes personas. La IA Responsable requiere que esa incertidumbre se refleje en las decisiones.

Una relación fluida y complementaria

La IA Auditable y la IA Humilde son simbólicas. Cuando se desarrolle de forma adecuada, la IA Auditable establecerá el criterio y las medidas de incertidumbre que trasladarán la toma de decisiones a los modelos alternativos, una medida consistente con el enfoque de la IA Humilde. El criterio para utilizar los modelos de la IA Humilde y los modelos alternativos debe establecerse durante el periodo de desarrollo del modelo con base en las fortalezas, debilidades y transparencia derivadas durante el desarrollo y transcribirse en el registro de la IA Auditable.

Por último, la IA Auditable y la IA Humilde ayudarán a incrementar la confianza en las decisiones generadas por los sistemas de inteligencia artificial —el mejor catalizador para ayudar a que esta tecnología se recupere y se gane la confianza de los medios—.

Comentarios de Facebook