fbpx

La FTC toma medidas contra los estafadores que suplantan la identidad artificial

El jueves 15 de febrero de 2024, la Comisión Federal de Comercio de los Estados Unidos de América (FTC), finalizó una nueva norma que amplía las protecciones a las suplantaciones de identidad de gobiernos y empresas para ayudar a frenar las estafas, y lanzó una convocatoria de aportaciones públicas sobre una norma propuesta que cubre las estafas generadas por inteligencia artificial dirigidas a particulares,

Las medidas de la agencia siguen a las crecientes denuncias de software de aprendizaje automático generativo que crea contenido sintético que imita a las personas. Estos contenidos van desde falsificaciones de imágenes y vídeos hasta la clonación artificial de audio y voz, entre otras formas de contenido.

La FTC está buscando comentarios sobre cómo evaluar la responsabilidad de las empresas que proporcionan herramientas para crear y desplegar este tipo de contenido.

“Los estafadores están utilizando herramientas de IA para hacerse pasar por individuos con una precisión espeluznante y a una escala mucho mayor. Con la clonación de voz y otras estafas impulsadas por IA en aumento, proteger a los estadounidenses del fraude de suplantación de identidad es más crítico que nunca”, dijo la presidenta de la FTC, Lina Khan. “Nuestras propuestas de ampliación de la norma final sobre suplantación de identidad harían precisamente eso, reforzando el conjunto de herramientas de la FTC para hacer frente a las estafas basadas en IA que suplantan a las personas.”

En virtud de una norma que entrará en vigor en las próximas semanas, la FTC prohíbe la suplantación de empresas y entidades gubernamentales. Según una entrada del blog de la FTC publicada el jueves, la norma “prohíbe algunos de los medios de suplantación de identidad favoritos de los estafadores”, como el uso de sellos gubernamentales, logotipos de empresas, suplantación de direcciones de correo electrónico y otros.

Al mismo tiempo, la FTC quiere ampliar su autoridad para abarcar el contenido creado por la IA y el software de aprendizaje automático.

En particular, esta norma adicional no solo se aplica a los propios estafadores, sino también a los actores que proporcionan los “medios e instrumentos” para cometer una estafa de suplantación de identidad. En los comentarios públicos, algunas asociaciones del sector tecnológico se mostraron reticentes a imponer la responsabilidad de terceros sin más claridad, pero hubo un amplio apoyo entre los comentaristas a que se otorgara cierta autoridad para perseguir a los proveedores de herramientas tecnológicas utilizadas para generar contenidos fraudulentos.

La comisión votó a favor de imponer la responsabilidad a “quienes proporcionen bienes o servicios sabiendo o teniendo motivos para saber que dichos bienes o servicios se utilizarán en suplantaciones del tipo de las que son ilegales en virtud de la Norma”.

“Dada la proliferación del fraude posibilitado por la IA, esta protección adicional parece especialmente crítica”, escribieron los funcionarios de la FTC en un comunicado. “Garantizar que los actores anteriores mejor posicionados para detener el uso ilegal de sus herramientas no estén protegidos de la responsabilidad ayudará a alinear la responsabilidad con la capacidad y el control.”

Nota publicada en Government Executive originalmente

Comentarios de Facebook