[adrotate banner="3"]

Written by 11:56 AM Inteligencia Artificial Views: 5

Cuatro pasos para una gobernanza exitosa de la IA generativa

Dado que el gobierno federal de los Estados Unidos de América está apostando claramente por los beneficios potenciales de la IA generativa y que el número de implementaciones en las agencias se está disparando, cabe esperar un mayor debate entre quienes quieren lanzarse rápidamente y sin reservas al mundo de la IA para aprovechar sus ventajas y quienes están más preocupados por las implicaciones en materia de seguridad y privacidad y quieren adoptar un enfoque más cauteloso.

Por un lado, parece que la facción que quiere lanzarse rápidamente tiene la ventaja. Recientemente hemos asistido a la publicación del Plan de Acción de IA de la Casa Blanca y de algunas órdenes ejecutivas que lo acompañan y que podrían eliminar eficazmente las barreras establecidas anteriormente por quienes abogaban por la cautela. Más concretamente, la Oficina de Responsabilidad Gubernamental informó recientemente de un aumento de nueve veces en los casos de uso de IA generativa en las agencias federales entre 2023 y 2024, y la Administración de Servicios Generales ha adjudicado múltiples contratos con grandes descuentos para soluciones de IA generativa a OpenAI, Anthropic y otros, lo que indica que este tren ya ha salido de la estación.

Aun así, abundan las preocupaciones legítimas en materia de seguridad y privacidad. Muchos miembros del Gobierno han expresado su preocupación por la forma en que estas herramientas de IA capturan los datos del Gobierno federal y el destino de esos datos, tanto a nivel interno como externo. Otras cuestiones giran en torno al coste del almacenamiento de todos los datos que las plataformas generan en el back-end y al tratamiento de la sobrecarga de información resultante de la implementación de la IA.

Está claro que los líderes federales están apostando fuerte por la IA. Si bien las preocupaciones sobre la seguridad y la privacidad siempre son relevantes, es importante reiterar que la seguridad es una línea de servicios que facilita los negocios, mantiene el cumplimiento normativo y reduce el riesgo de la misión a un nivel aceptable.

Para ello, las agencias deben considerar cuatro pasos para abordar las preocupaciones de seguridad y privacidad al implementar nuevos casos de uso de IA.

Paso 1: Comprender sus datos, la sensibilidad de los datos y el valor de los datos. Los líderes de las agencias deben realizar un inventario de todos los datos que entrarán en contacto con las herramientas de IA, ya sea en el front-end o en el back-end. Tener esa comprensión dictará el grado de proliferación de diversos datos y determinará dónde pueden y no pueden ir de forma segura.

Paso 2: Realizar una revisión de la preparación. Esta revisión debe vincular la gobernanza con la admisión, garantizando que las plataformas no solo cumplan las directrices éticas o de privacidad, sino que también ayuden a dar visibilidad a los puntos de aplicación de las políticas y apliquen controles técnicos. De forma similar a las revisiones de preparación para la nube que se llevaron a cabo cuando las agencias comenzaron a adoptar la nube hace años, las agencias deben disponer de un modelo para evaluar el riesgo de la IA generativa en lugar de bloquear plataformas enteras.

Este paso está relacionado con el objetivo de la misión, el caso de uso y la forma de habilitar el proyecto de forma segura. Esto se puede hacer mediante análisis de los datos sensibles que se transfieren hacia y desde la plataforma y dentro de las actividades de los usuarios con la plataforma, como «publicar», «compartir», «copiar» o «editar». También debe tener en cuenta los grandes modelos de lenguaje (LLM) que utiliza cada plataforma, si la plataforma ha sido objeto de alguna violación, su presencia en países prohibidos desde el punto de vista federal de los Estados Unidos de América, cómo esa plataforma puede utilizar externamente los datos introducidos por el gobierno y otros factores.

Paso 3: Determinar los objetivos futuros del proyecto. Es importante tener en cuenta cómo es probable que evolucionen los casos de uso de la IA para evitar el «bloqueo algorítmico» y la necesidad futura de desmantelar y sustituir, lo que será muy difícil cuando se trata de la IA. Esto debe ir acompañado de políticas que regulen los casos de plataformas concretas, no solo abordando cuáles son los límites, sino también cuestiones como si las plataformas deben residir en un entorno completamente aislado, cómo introducir y extraer los modelos de formación, comprender y ser capaz de controlar las actividades de los usuarios, y la sensibilidad de los datos que entran y salen de las plataformas.

Paso 4: Pedir ayuda. Los pasos anteriores pueden parecer sencillos y fáciles de implementar, pero requieren mucho trabajo y recursos. Afortunadamente, las empresas del sector privado tienen experiencia en estas iniciativas y pueden encargarse de gran parte del extenso trabajo manual que implica la evaluación y la gestión de riesgos. Aproveche estos recursos siempre que sea posible.

El gobierno federal se encuentra actualmente en posición de sumergirse por completo en la revolución de la IA, al tiempo que se aleja de ella en algunos aspectos. En última instancia, el gobierno puede aprovechar las extraordinarias ventajas de estas herramientas si evalúa plenamente los riesgos y procede con cautela. De este modo, puede aprovechar la tecnología ahora sin aumentar el riesgo para la agencia en el futuro.

Publicado originalmente en Nextgov

Visited 5 times, 5 visit(s) today

Last modified: 24 de octubre de 2025

Close