Computación

¿Racismo en cómputo?

La tecnología avanza a pasos agigantados. Noten por ejemplo el uso de “Alexa”, el cual es un dispositivo de Google que por voz, nos permite crear listas del supermercado, abrir y cerrar puertas (si se tiene el hardware correcto), encender y apagar focos inteligentes, entre muchas otras cosas.
domingo, 16 de octubre de 2022 · 15:00

CIUDAD DE MÉXICO (proceso.com.mx).–La tecnología avanza a pasos agigantados. Noten por ejemplo el uso de “Alexa”, el cual es un dispositivo de Google que por voz, nos permite crear listas del supermercado, abrir y cerrar puertas (si se tiene el hardware correcto), encender y apagar focos inteligentes, entre muchas otras cosas. Poco a poco nos vamos acostumbrando a estos nuevos dispositivos que incluso, se regionalizan para hacerlos más cotidianos con la realidad de los que viven en algún sitio en particular. De hecho, si le dicen a dispositivo de Google: “Alexa, ya me voy”, es probable que responda: “Espera/Aún la nave del olvido no ha partido/No condenemos al naufragio lo vivido/Por nuestro ayer, por nuestro amor, yo te lo pido”.

Por otra parte, cada vez usamos más el reconocimiento de rostros en nuestra vida cotidiana. Por ejemplo, desbloqueamos los teléfonos con nuestro rostro e incluso nos sorprendemos cuando Facebook nos etiqueta en una foto con nuestro nombre de forma automática. Son avances en el reconocimiento visual que son francamente sorprendentes. Sin embargo, esta tecnología de reconocimiento de rostros está siendo bloqueada por diversas instituciones como la policía y las agencias de investigación criminal en algunos países. La razón es que el reconocimiento de los rostros es la medida biométrica menos precisa si la comparamos contra las huellas digitales, el iris del ojo o incluso la voz humana. Pero hay más…

Por ejemplo, la policía usa reconocimiento de rostros para comparar las caras de los sospechosos con aquellos que antes han sido ya registrados en la base de datos policial. Se estima que en Estados Unidos hay unas 127 millones de fotografías de rostros de personas (casi la mitad de los adultos estadunidenses), que bien pueden usarse en los sistemas de identificación criminal de ese país. No vayamos muy lejos: cada vez que visitamos el país de las barras y las estrellas, el oficial de migración nos toma fotografías con su cámara web desde su cubículo. Y no podemos decirle que no aceptamos el tomarnos fotografías para sus registros porque si lo hacemos, lo más probable es que nos regresen a nuestro país.

Pero más aún, el reconocimiento de rostros tiene un sesgo racial en estos sistemas, particularmente con los ciudadanos estadounidenses negros. Se tiene ya una larga historia de actos de vigilancia contra activistas de causas sociales, lo que al final del día se traduce como desigualdades mayores en la población.

Si hablamos de los algoritmos que reconocen rostros, su precisión s mayor del 90%, aunque hay que decir que esto no es universal. Hay investigaciones (https://www.sciencedirect.com/science/article/abs/pii/S0364021302000848) que muestran errores entre diversos grupos demográficos, en donde la peor precisión en el reconocimiento la tienen las mujeres más pobres, negras, en el rango de los 18 a los 30 años. Cabe señalar que algunos de los algoritmos más usados de reconocimiento han sido creados por IBM, Amazon y Microsoft y estos incluyen las siguientes categorías: mujeres de piel oscura, hombres de piel oscura, mujeres de piel clara y hombres de piel clara. Los algoritmos tienen errores significativos con las personas de piel oscura, sobre todo en el caso de las mujeres.

Estos resultados lograron respuestas casi inmediatas por parte de los grupos de programación de IBM, Amazon y Microsoft, y se han comprometido a reducir los sesgos modificando sus pruebas de color y mejorando la colección de datos en grupos específicos demográficos. De hecho, el algoritmo de Amazon –que mostraba hasta 31% de error en la clasificación de género– mostró reducciones en dicho sesgo. No obstante este resultado, Amazon defiende su algoritmo original indicando que las discrepancias no son por cuestiones raciales, sino porque las aplicaciones de la empresa distan de las que se usan en el ambiente policiaco, lo cual –seamos francos– tienen un punto en ese sentido.

La identificación de rostros tiene incluso un lado más oscuro: puede ser usado finalmente contra personas de ciertos grupos sociales, como los inmigrantes o bien los musulmanes, como se ha documentado esto último en el caso de la policía de Nueva York. Podemos citar casos en donde esta tecnología, mal utilizada, lleva a situaciones escabrosas. Por ejemplo, en el asesinato de George Floyd (https://es.wikipedia.org/wiki/Muerte_de_George_Floyd), producido por la policía de Minneapolis en el 2020, mostró que a priori, los oficiales de la ley y el orden son más propensos a arrestar y encarcelar por crímenes menores a los ciudadanos negros. Consecuentemente, el sesgo quizás no depende ya de los algoritmos, sino del uso que le dan los mismos policías. Cabe señalar que la policía de Nueva York tiene una base de datos con 42 mil sospechosos de ser parte de bandas criminales y ya no es de sorprenderse que el 99% de dicha base de fotografías, sea de negros y latinos. No hay incluso ningún requerimiento o regla legal para que la policía decida que alguien es susceptible de ser parte de esta base de información. Esto, aparte de ser un sesgo social y no de los programas de computadora, hace que los reportes falsos se incrementen y como consecuencia, las sentencias de los tribunales sean más duras o incluso, que impidan la libertad provisional de los acusados.

Así pues, el problema parece tener más bases sociales que técnicas. El FBI tiene de hecho una larga historia de vigilancia de los activistas negros, a quienes tienen en la mira buscando eliminar sus actividades. Los programas de reconocimiento pueden entonces ser sesgados para generar daño psicológico en las personas e incluso, con bases de información compartida, negar servicios de salud, por ejemplo. Y si alguien cree que esto es una exageración, hay que indicar que lamentablemente ocurre y con más frecuencia de la que imaginamos.

Un ejemplo más puede ser muy ilustrativo: El Proyecto Linterna Verde ( Project Green Light), se desarrolló en el 2016, en donde se instalaron cámaras de alta definición en la ciudad de Detroit. Las imágenes legaban directamente a la policía de dicha ciudad y se probaba el sistema de reconocimiento de rostros para localizar criminales en la base de datos de dicho departamento policial, así como la comparación con las fotos de las licencias de conducir de los habitantes de esa región. De hecho, casi todos los residentes de Michigan están ya en este sistema. Sin embargo, las estaciones del PGL no se distribuían de manera homogénea: los centros más usados eran aquellos en donde había una correlación de personas negras, evitando los ciudadanos de piel clara o los asiáticos.

Hay que decir que todos estos problemas, ahora bien conocidos, se han intentado paliar de muchas maneras. Por ejemplo, los algoritmos de reconocimiento de rostros pueden ahora ser entrenados para ser usados con muchos conjuntos demográficos diferentes. Las bases de rostros usadas originalmente trataban de hombres blancos, predominantemente. Aparte, ahora hay una tendencia a pedir permiso a los ciudadanos para usar sus rostros de forma biométrica aunque esto aún está en pañales. También hay que indicar que las cámaras están mejorando en la captura de las imágenes y los primeros dispositivos de captura no estaban optimizados para capturar tonos oscuros de piel.

No obstante todo esto, probablemente los algoritmos de identificación de rostros deberán ser auditados constantemente para medir la magnitud de sus sesgos y desde luego, que se tenga una vigilancia exhaustiva ante los sesgos de los que controlan esta información, particularmente si se trata de bases de datos con intenciones de vigilancia o control policial.

Fuente: https://sitn.hms.harvard.edu/flash/2020/racial–discrimination–in–face–recognition–technology/

Más de

Comentarios