fbpx

Un enfoque para regular la Inteligencia Artificial

Uno de los principales problemas para generar legislación acerca de la Inteligencia Artificial es la intencionalidad. Si bien al entrenar un modelo pueden existir sesgos, la actividad de las IA carecen de intención al final, aunque pueden generar consecuencias.

Al respecto los investigadores Ian Ayres y Jack M. Balkin de la Escuela de Derecho de la Universidad de Yale han presentado un trabajo de investigación titulado “El Derecho de la IA es el Derecho de de Agentes de Riesgo sin intenciones”, donde concluyen que “el avance de la tecnología de Inteligencia Artificial requerirá cambios en muchas áreas diferentes del Derecho [..] hemos argumentado que la IA debe analizarse no como una agencia independiente, sino en las personas y empresas que las diseñan, que las publican y ofrecen. Para regular apropiadamente la IA es necesario mantener el foco en los humanos que están detrás de ellas”.

A continuación un resumen del documento, que está disponible en el Blog de Alejandro Barros.

Introducción

  • El problema principal es adaptar la ley para regular entidades sin intenciones, como la IA.
  • Las leyes actuales a menudo dependen de las intenciones del actor para determinar la responsabilidad, pero la IA carece de intenciones humanas.
  • Los autores proponen utilizar estándares objetivos para atribuir intenciones o mantener a la IA a estándares específicos de conducta.
  • La responsabilidad legal debería recaer en los humanos y las organizaciones que utilizan la IA, no en la propia IA.

Relación Principal-Agente

  • Los programas de IA actúan en nombre de los humanos, similar a los agentes.
  • Las leyes deberían mantener a la IA a estándares objetivos, similar a cómo los principales son responsables por sus agentes.
  • Los humanos no deberían obtener un deber de cuidado reducido al usar IA en lugar de humanos.
  • Diferentes niveles de cuidado (negligencia, responsabilidad estricta, deber fiduciario) deberían aplicarse a los humanos que emplean IA según la función realizada por la IA.

Estrategias para la Regulación

  • Intenciones Atribuidas: La ley a menudo atribuye intenciones a entidades en otros contextos. Por ejemplo, los actores en delitos intencionales se presumen que tienen la intención de las consecuencias de sus acciones.
  • Estándares Objetivos: La ley de negligencia mantiene a las personas a un estándar de cuidado razonable independientemente de sus intenciones reales. Las leyes de contrato y agencia utilizan estándares objetivos para interpretar acciones y relaciones.

Aplicación a la IA

  • La IA debería ser regulada atribuyendo intenciones y aplicando estándares objetivos.
  • Cuando se requiere un mens rea específico (estado mental) para la responsabilidad en humanos, se deberían aplicar estándares similares a la IA manteniendo a los diseñadores, entrenadores y usuarios a un estándar de razonabilidad.
  • Los estándares más altos de cuidado deberían aplicarse cuando la IA realiza funciones fiduciarias.

Justificaciones

  • Los estándares subjetivos (por ejemplo, la malicia real en difamación) protegen la libertad humana y previenen los efectos inhibidores en el discurso. Estas justificaciones no se aplican a la IA ya que la IA carece de autonomía y libertad política.
  • Las protecciones de la Primera Enmienda consideran tanto los derechos de los hablantes como de los oyentes, pero el papel de la IA como hablante no es equivalente al de los humanos.

Conclusión

  • La ley debe adaptarse para regular la IA enfocándose en los humanos y organizaciones responsables de desplegar y gestionar sistemas de IA.
  • Los estándares legales deben asegurar que aquellos que usan IA no puedan evadir la responsabilidad escondiéndose detrás de la falta de intenciones en la IA.
Comentarios de Facebook