¿Un mal algoritmo? Activistas afirman que el reconocimiento facial revela el racismo sistémico en la inteligencia artificial

Breve26 de junio de 2020
Relacionado

La polémica en torno al uso policial de la tecnología de reconocimiento facial se ha intensifiado luego que un hombre negro en Michigan revelara que fue arrestado injustamente por el uso de esa tecnología. La policía de Detroit esposó a Robert Williams frente a su esposa y sus hijas porque el software de reconocimiento facial lo había identificado erróneamente como sospechoso de un robo. Investigaciones sobre el tema señalan que el software de reconocimiento facial tiene hasta cien veces más probabilidades de identificar erróneamente a las personas de color que a las personas blancas. Esta semana, el consejo municipal de Boston votó a favor de dejar de usar esta herramienta en la ciudad, y legisladores demócratas presentaron un proyecto similar que afectaría a las fuerzas de seguridad federales. “Este no es un ejemplo de mal algoritmo. Al igual que los casos de violencia policial, es una pequeña muestra de cómo los sistemas de inteligencia artificial, como los que operan las tecnologías de reconocimiento facial, pueden tener incorporado el racismo sistémico”, dice Joy Buolamwini, fundadora de la Liga de la Justicia Algorítmica.

Para conocer más sobre este tema, vea (en inglés) la conversación que mantuvimos con Joy Buolamwini.

The original content of this program is licensed under a Creative Commons Attribution-Noncommercial-No Derivative Works 3.0 United States License. Please attribute legal copies of this work to democracynow.org. Some of the work(s) that this program incorporates, however, may be separately licensed. For further information or additional permissions, contact us.

Las noticias no comerciales necesitan de su apoyo

Dependemos de las contribuciones de nuestros espectadores y oyentes para realizar nuestro trabajo.
Por favor, haga su contribución hoy.
Realice una donación
Inicio