Home Tecnología IBM y Amazon abjuran de la tecnología de reconocimiento facial por su sesgo racista

IBM y Amazon abjuran de la tecnología de reconocimiento facial por su sesgo racista

por Redacción BL
0 comentario
IBM y Amazon abjuran de la tecnología de reconocimiento facial por su sesgo racista

Las protestas contra el racismo y la brutalidad policial en Estados Unidos se han cobrado una victoria más esta semana con la decisión de IBM de abjurar de la tecnología de reconocimiento facial y desaconsejar su uso por parte de las agencias del orden. Anoche, presionada por la decisión de su competidor, Amazon anunció una moratoria de un año en el uso de su software por parte de la policía. La razón, las preocupaciones por su sesgo racista.

“Creemos que es el momento de comenzar un diálogo nacional sobre si la tecnología de reconocimiento facial debe ser empleada por las agencias de policía nacionales y en qué condiciones”, afirma Arvind Krishna, director ejecutivo de IBM, en una carta enviada al Congreso el lunes. “Luchar contra el racismo es más urgente que nunca”, afirma Krishna, que anuncia que IBM ha puesto fin a sus productos “generales” de reconocimiento facial y no avalará el uso de ninguna tecnología con fines de “vigilancia masiva, discriminación racial y violaciones de derechos humanos”.





Los sistemas de reconocimiento facial basados en la inteligencia artificial están desde hace años en la diana de los activistas por los derechos humanos. Diferentes estudios han demostrado que discriminan a los negros y personas de piel oscura en general, pero en especial a las mujeres, a las que tiene más problemas para distinguir. La Unión de Libertades Civiles de América (ACLU) demostró en el 2018 la escasa fiabilidad del programa de Amazon, Reckognition, al aplicarlo a fotos de los miembros del Congreso de EE.UU: el software identificó incorrectamente a 28 personas como autores de delitos cuyos responsables ya estaban entre rejas.


TECNOLOGÍA IMPERFECTA

El 93% de errores al identificar por el rostro de Microsoft afectan a personas de piel oscura





Un estudio del MIT Media Lab concluyó en el 2018 que, aunque la precisión media de estos productos oscila entre el 93,4% y el 87,9%, las diferencias en función del color de piel y el sexo son notables, hasta el punto de que el margen de error entre identificar a un hombre blanco y una mujer negra es del 34% mayor en el caso del software de IBM; el 93% de los errores cometidos por el producto de Microsoft afectaba a personas de piel oscura, y el 95% de los fallos de Face++, una alternativa china, se refería a mujeres.





“La iniciativa de IBM es un primer paso” para conseguir que las empresas sean responsables y promuevan “una inteligencia artificial imparcial y responsable”, celebra Joy Buolamwini, coautora del estudio del MIT y fundadora de Algorithmic Justice League. “Es un dulce reconocimiento de que la tecnología de reconocimiento facial, en especial en manos de la policía, se ha usado para violar los derechos humanos y hacer daño a los ciudadanos negros en particular, así como a los indígenas y gente de color”.

Desde la muerte bajo custodia policial de George Floyd, las demandas para que las agencias del orden deje de utilizar programas de reconocimiento facial, como ya han hecho San Francisco y Oakland, se han intensificado. Su uso ha ido a más en los últimos años. Según The New York Times, cientos de agencias del orden usan estas tecnologías en EE.UU.


IMPLICACIONES MAYORES

Los individuos con antecedentes penales sufren discriminaciones socioeconómicas





El reconocimiento facial no es un sector de peso en las actividades de IBM, pero “su naturaleza simbólica es importante”, afirma Mutale Nkonde, investigadora de inteligencia artificial en Harvard y Stanford. Más importante es el papel de Microsoft y Amazon, cuyo programa Rekognition es utilizado por varios departamentos de policía del país norteamericano.





Rekognition es “la tecnología de vigilancia más peligrosa jamás creada”, según la ACLU, que la semana pasada fustigó la doble moral de Amazon al expresar en Twitter su “solidaridad con la comunidad negra” al tiempo que sigue vendiendo su software a fuerzas del orden. La compañía, que tiene acuerdos con 400 departamentos de policía para compartir las grabaciones de Ring, su timbre inteligente, emitió un comunicado en el que reivindica un uso “adecuado” y “transparente” de estas tecnologías para garantizar la protección de los derechos humanos. Anoche, la compañía de Jeff Bezos cedió. “Esperamos que una moratoria de un año dé tiempo al Congreso para aprobar las reglas necesarias” para un uso ético de estas tecnologías, anunció Amazon.

Las implicaciones de una identificación incorrecta pueden tener consecuencias a largo plazo. Como recuerda el estudio del MIT Media Lab, una decisión incorrecta de este tipo tomada a partir de algoritmos puede llevar a condenas penales y posteriores discriminaciones a la hora de comprar o alquilar una vivienda, estudiar, trabajar o pedir un crédito. Estas prácticas, combinadas con la desproporcionadamente alta de encarcelamientos de la población negra, es una de las razones detrás de su pertinaz situación de desigualdad frente a los blancos.





Fuente de la Noticia

También te puede interesar

Deje un comentario

Noticias de Buenaventura y el mundo

2024 – All Right Reserved. [email protected]