Nacional
Uso de inteligencia artificial en cuerpos policiales podría profundizar racismo: CERD
Los expertos recomendaron a los Estados evaluar cuidadosamente el impacto en los derechos humanos antes de emplear la tecnología de reconocimiento facial.CIUDAD DE MÉXICO (apro).- El Comité para la Eliminación de la Discriminación Racial (CERD) advirtió que el uso de macrodatos, inteligencia artificial (IA) y reconocimiento facial, entre otras nuevas tecnologías en los cuerpos policiales, podría profundizar el racismo, la discriminación racial, la xenofobia y la violación de los derechos humanos.
En una guía para combatir la discriminación racial en la policía de todo el mundo, el Comité alertó sobre el grave riesgo de sesgo algorítmico cuando se utiliza la IA en la aplicación de la ley.
“Estamos profundamente preocupados por los riesgos particulares cuando se utiliza el perfil algorítmico para determinar la probabilidad de actividad delictiva”, dijo Verene Shepherd, uno de los 18 expertos del Comité, y señaló que los macrodatos y las herramientas de IA pueden reproducir y reforzar prejuicios ya existentes y dar lugar a prácticas aún más discriminatorias.
Shepherd explicó que los datos de arrestos sobre un vecindario pueden reflejar prácticas policiales con prejuicios raciales, y que esos datos profundizarían el riesgo de vigilancia excesiva en el vecindario, conduciendo a más arrestos y creando un circuito de retroalimentación peligroso.
En la guía, el Comité destacó que los sistemas de elaboración de perfiles algorítmicos deben cumplir plenamente con el derecho internacional de los derechos humanos, y subrayó la importancia de la transparencia en el diseño y la aplicación de estos.
“Esto incluye la divulgación pública del uso de tales sistemas y explicaciones de cómo funcionan, qué conjuntos de datos se están utilizando y qué medidas se han implementado para prevenir daños a los derechos humanos”, añadió.
Por otra parte, consideró que las empresas privadas que desarrollan, venden u operan sistemas de elaboración de perfiles algorítmicos con fines de aplicación de la ley también tienen la responsabilidad de involucrar a personas de diversos sectores, como expertos legales, para evaluar el riesgo de violación de los derechos humanos.
Los expertos recomendaron a los Estados evaluar cuidadosamente el impacto en los derechos humanos antes de emplear la tecnología de reconocimiento facial, y comentaron que la elaboración de perfiles raciales, además de ser ilegal, puede ser ineficaz y contraproducente, ya que las personas sometidas a la aplicación de una ley discriminatoria tienden a tener menos confianza en la policía y están menos dispuestas a cooperar con ellos.