La tecnología no puede con la injusticia algorítmica Revista NUVE

 

 

 

Gran parte del debate público reciente sobre la inteligencia artificial ha sido impulsado por visiones apocalípticas del futuro. La humanidad, se nos dice, está comprometida en una lucha existencial contra su propia creación. Estas preocupaciones son alimentadas en gran parte por los líderes de la industria tecnológica y los futuristas, que anticipan sistemas tan sofisticados que pueden realizar tareas generales y operar de forma autónoma, sin control humano. Stephen Hawking, Elon Musk y Bill Gates han expresado públicamente sus preocupaciones sobre el advenimiento de este tipo de IA “fuerte” (o “general”) y el riesgo existencial asociado que puede representar para la humanidad. En palabras de Hawking, el desarrollo de una IA fuerte “podría significar el fin de la raza humana”.

 

.

 

 

 

Estas son preocupaciones legítimas a largo plazo. Pero no son lo único de lo que tenemos que preocuparnos, y colocarlos en el centro del escenario distrae de las cuestiones éticas que la IA plantea aquí y ahora. Algunos sostienen que una IA fuerte puede estar a solo décadas de distancia, pero este enfoque oscurece la realidad de que la IA “débil” (o “estrecha”) ya está remodelando las instituciones sociales y políticas existentes. La toma de decisiones algorítmica y los sistemas de apoyo a las decisiones se están implementando actualmente en muchos dominios de alto riesgo, desde la justicia penal, la aplicación de la ley y las decisiones laborales hasta la calificación crediticia, los mecanismos de asignación escolar, la atención médica y las evaluaciones de elegibilidad de beneficios públicos. No importa el lejano espectro del fin del mundo; La IA ya está aquí, trabajando entre bastidores en muchos de nuestros sistemas sociales.

¿Qué responsabilidades y obligaciones tenemos por las consecuencias sociales de la IA en el presente, no solo en un futuro lejano? Para responder a esta pregunta, debemos resistir la indefensión aprendida que ha llegado a considerar inevitable el desarrollo de la IA. En cambio, debemos reconocer que desarrollar e implementar una IA débil implica tomar decisiones consecuentes, elecciones que exigen una mayor supervisión democrática no solo de los desarrolladores y diseñadores de IA, sino de todos los miembros de la sociedad.

 

 

 

Lo primero que debemos hacer es analizar detenidamente los argumentos que sustentan el uso actual de la IA.

Algunos son optimistas de que los sistemas de inteligencia artificial débiles pueden contribuir positivamente a la justicia social. A diferencia de los humanos, continúa el argumento, los algoritmos pueden evitar la toma de decisiones sesgada, logrando así un nivel de neutralidad y objetividad que no es humanamente posible. Una gran cantidad de trabajos recientes han criticado esta presunción, incluidos los algoritmos de opresión de Safiya Noble (2018), la carrera después de la tecnología de Ruha Benjamin (2019) , la falta de inteligencia artificial de Meredith Broussard (2018), el hola mundo de Hannah Fry (2018), la desigualdad automatizada de Virginia Eubanks. (2018), Technically Wron g (2017) de Sara Wachter-Boettcher y Weapons of Math Destruction de  Cathy O’Neil(2016). Como enfatizan estos autores, existe una gran cantidad de evidencia empírica que muestra que el uso de sistemas de IA a menudo puede replicar condiciones históricas y contemporáneas de injusticia, en lugar de aliviarlas.

En respuesta a estas críticas, los profesionales se han centrado en optimizar la precisión de los sistemas de inteligencia artificial para lograr resultados de decisiones neutrales y aparentemente objetivos. Estos optimistas admiten que los sistemas algorítmicos no son neutrales en el presente , pero argumentan que pueden volverse neutrales en el futuro, lo que en última instancia hará que su despliegue sea moral y políticamente inobjetable. Como IBM Research, uno de los muchos centros de investigación corporativos centrados en tecnologías de inteligencia artificial, proclama :

 

 

El subcampo emergente de ciencias de la computación de FAT ML (“equidad, responsabilidad y transparencia en el aprendizaje automático”) incluye una serie de contribuciones importantes en esta dirección, descritas de manera accesible en dos libros nuevos: The Ethical Algorithm de Michael Kearns y Aaron Roth  (2019 ) y Gary Marcus y Ernest Davis’s Rebooting AI: Building Artificial Intelligence We Can Trust  (2019). Kearns y Roth, por ejemplo, escriben:

 

Nosotros . . . . creen que reducir el mal comportamiento algorítmico requerirá en sí mismo más y mejores algoritmos, algoritmos que pueden ayudar a los reguladores, grupos de vigilancia y otras organizaciones humanas a monitorear y medir los efectos indeseables y no deseados del aprendizaje automático.

 

 

 

Sin embargo, existen serias limitaciones a lo que podríamos llamar este enfoque de control de calidad del sesgo algorítmico. Equidad algorítmica, como se usa actualmente el término en la informática, a menudo describe un valor u objetivo bastante limitado, que los filósofos políticos podrían llamar “equidad procesal”, es decir, la aplicación de las mismas reglas de decisión imparcial y el uso del mismo tipo. de datos para cada individuo sujeto a evaluaciones algorítmicas, a diferencia de un enfoque más “sustantivo” de la equidad, que implicaría intervenciones en los resultados de las decisiones y su impacto en la sociedad (en lugar de solo los procesos de decisión ) para hacer que los primeros sean más justos.

Incluso si el código se modifica con el objetivo de asegurar la equidad procesal, sin embargo, nos quedamos con la cuestión filosófica y política más profunda de si la neutralidad constituye equidad en condiciones de fondo de desigualdad generalizada e injusticia estructural. Las soluciones supuestamente neutrales en el contexto de una injusticia generalizada corren el riesgo de afianzar aún más las injusticias existentes. Como han señalado muchos críticos, incluso si los algoritmos mismos logran algún tipo de neutralidad en sí mismos, los datos de los que aprenden estos algoritmos todavía están plagados de prejuicios. En resumen, los datos que tenemos, y por lo tanto los datos que ingresan al algoritmo, no son ni los datos que necesitamos ni los que merecemos. Por lo tanto, la cura para el sesgo algorítmico puede no ser más o mejores algoritmos. Puede haber algunos sistemas de aprendizaje automático que no deberían implementarse en primer lugar,

Existe una gran cantidad de evidencia empírica que muestra que el uso de sistemas de inteligencia artificial a menudo puede replicar condiciones históricas y contemporáneas de injusticia, en lugar de aliviarlas.

 

 

Para un ejemplo concreto, considere los sistemas de aprendizaje automático utilizados en la vigilancia policial predictiva, mediante los cuales los datos históricos de la tasa de delincuencia se introducen en algoritmos para predecir las distribuciones geográficas futuras de la delincuencia. Los algoritmos señalan ciertos vecindarios como propensos a delitos violentos. Sobre esa base, los departamentos de policía toman decisiones sobre dónde enviar a sus agentes y cómo asignar los recursos. Si bien el concepto de vigilancia policial predictiva es preocupante por varias razones, una defensa común de la práctica es que los sistemas de inteligencia artificial son exclusivamente “neutrales” y “objetivos”, en comparación con sus contrapartes humanas. A primera vista, podría parecer preferible quitar el poder de toma de decisiones de las manos de departamentos de policía y oficiales de policía sesgados. Pero, ¿qué pasa si los datos en sí están sesgados, de modo que incluso el “mejor” algoritmo arrojaría resultados sesgados?

Este no es un escenario hipotético: los algoritmos de vigilancia predictiva se alimentan de datos históricos de tasas de criminalidad que sabemos que están sesgados. Sabemos que las comunidades marginadas, en particular las comunidades negras, indígenas y latinx, han sido sometidas a una vigilancia excesiva. Dado que se descubren más delitos y se realizan más arrestos en condiciones de presencia policial desproporcionadamente alta, los datos asociados están sesgados. El problema es de sobrerrepresentación: comunidades particulares aparecen de manera desproporcionada en los datos de actividad delictiva, en parte debido a cuán (injustamente) se les ha vigilado y cuán inequitativamente se han hecho cumplir las leyes.

 

 

No debería sorprender, entonces, que estos algoritmos hagan predicciones que reflejan patrones pasados. Estos nuevos datos luego se retroalimentan en el modelo tecnológico, creando un ciclo de retroalimentación pernicioso en el que la injusticia social no solo se replica, sino que de hecho se afianza aún más. También vale la pena señalar que las mismas comunidades que han sido sometidas a una vigilancia excesiva han sido severamente descuidadas , tanto intencionalmente como no, en muchas otras áreas de la vida social y política. Si bien están sobrerrepresentados en los conjuntos de datos de tasas de criminalidad, están subrepresentados en muchos otros conjuntos de datos (por ejemplo, los relacionados con el rendimiento educativo).

Por lo tanto, la injusticia estructural produce datos sesgados a través de una variedad de mecanismos, entre los que destacan la subrepresentación y la sobrerrepresentación, lo que genera preocupantes ciclos de retroalimentación. Incluso si se resolvieran los problemas de control de calidad asociados con las reglas de decisión de un algoritmo, nos quedaríamos con un problema más fundamental: estos sistemas seguirían aprendiendo y confiando en datos nacidos de condiciones de injusticia generalizada y duradera.

Reconociendo que estos problemas plantean problemas genuinos para la posibilidad de un algoritmo verdaderamente neutral, algunos podrían abogar por implementar contramedidas para corregir el sesgo en los datos, un supuesto ecualizador a nivel algorítmico. Si bien esto puede ser un paso importante en la dirección correcta, no constituye una solución satisfactoria por sí solo. Las contramedidas pueden ayudar a explicar los problemas de representación excesiva e insuficiente de los datos, pero no pueden corregir el problema de qué tipo de datos se han recopilado en primer lugar.

 

 

 

Los datos que tenemos, y por lo tanto los datos que ingresan al algoritmo, a menudo no son ni los datos que necesitamos ni los que merecemos.

Considere, por ejemplo, otra aplicación controvertida de la inteligencia artificial débil: la puntuación de riesgo algorítmico en el proceso de justicia penal, que se ha demostrado que conduce a resultados con prejuicios raciales. Como un estudio conocidopor ProPublica mostró en 2016, uno de esos algoritmos clasificaba a los acusados ​​negros con un “alto riesgo de reincidencia” a tasas desproporcionadamente más altas en comparación con los acusados ​​blancos, incluso después de controlar variables como el tipo y la gravedad del delito cometido. Como dijo ProPublica, “la predicción falla de manera diferente para los acusados ​​negros”; en otras palabras, las predicciones algorítmicas hicieron un trabajo mucho peor al predecir con precisión las tasas de reincidencia de los acusados ​​negros, en comparación con los acusados ​​blancos, dados los delitos que los acusados ​​individuales habían cometido anteriormente; los acusados ​​negros que de hecho eran de bajo riesgo tenían muchas más probabilidades de recibir una puntuación de alto riesgo que los acusados ​​blancos similares. A menudo, estos sistemas algorítmicos se basan en datos sociodemográficos, como edad, sexo, antecedentes educativos, estabilidad residencial y registro de arrestos familiares. Aunque el algoritmo en este caso no se basa explícitamente en la raza como variable, estas otras características sociodemográficas pueden funcionar como sustitutos de la raza. El resultado es una forma digital de línea roja o, como lo llaman los científicos informáticos, “codificación redundante”.

 

En respuesta a este problema, algunos estados, incluido Nueva Jersey, implementaron recientemente sistemas de puntuación de riesgo algorítmicos más minimalistas, basándose únicamente en datos de comportamiento, como registros de arrestos. El objetivo de estos sistemas es evitar la codificación redundante reduciendo la cantidad de información sociodemográfica que se introduce en el algoritmo. Sin embargo, dado que las comunidades de color están controladas de manera desproporcionada y, a su vez, detenidas a tasas desproporcionadamente altas, los datos “puramente conductuales” sobre el historial de arrestos, por ejemplo, todavía son muy controvertidos (y clasificados y clasificados por género). Por tanto, el problema de la codificación redundante no se resuelve de hecho. El ejemplo de Nueva Jersey, entre muchos otros, muestra que apartarse de las circunstancias sociales de los acusados ​​no conduce a una verdadera imparcialidad.

A la luz de estos problemas, cualquier enfoque centrado en optimizar la equidad procesal, sin prestar atención al contexto social en el que operan estos sistemas, será insuficiente.

 

 

El diseño algorítmico no se puede arreglar de forma aislada. Los desarrolladores no pueden simplemente preguntar: “¿Qué debo hacer para corregir mi algoritmo?” Más bien deben preguntarse: “¿Cómo interactúa mi algoritmo con la sociedad en general, y como es actualmente, incluidas sus desigualdades estructurales?” Debemos examinar cuidadosamente la relación y la contribución de los sistemas de IA a las configuraciones existentes de injusticia política y social, no sea que estos sistemas continúen perpetuando esas mismas condiciones bajo el disfraz de neutralidad. Como han argumentado muchos teóricos críticos de la raza y filósofas feministas, las soluciones neutrales bien podrían asegurar resultados justos de una manera justa. sociedad, pero solo sirven para preservar el status quo en uno injusto.

El primer paso, pero no el único, es la transparencia sobre las opciones que intervienen en el desarrollo de la IA y las responsabilidades que presentan tales opciones.

Puede haber algunos sistemas de aprendizaje automático que no deberían implementarse en primer lugar, sin importar cuánto podamos optimizarlos.

Algunos podrían inclinarse a absolver de responsabilidad moral a los desarrolladores e investigadores de IA a pesar de su experiencia en los riesgos potenciales de implementar estas tecnologías. Después de todo, se piensa, si siguieron las regulaciones y protocolos existentes y hicieron uso de la mejor información y conjuntos de datos disponibles, ¿cómo pueden ser considerados responsables de los errores y accidentes que no previeron? Desde este punto de vista, tales son los costos inevitables y necesarios del avance tecnológico: dolores de crecimiento que pronto olvidaremos a medida que la tecnología mejore con el tiempo.

 

Un problema significativo con este quietismo es la suposición de que las regulaciones e investigaciones existentes son adecuadas para el despliegue ético de la IA, una suposición que incluso los propios líderes de la industria, incluido el presidente y director legal de Microsoft, Brad Smith, han admitido que es poco realista.

Sin embargo, el mayor problema con esta imagen es su descripción inexacta de cómo se desarrollan e implementan los sistemas de IA. Desarrollar sistemas algorítmicos implica tomar muchas decisiones deliberadas .Por ejemplo, los algoritmos de aprendizaje automático a menudo están “entrenados” para navegar en conjuntos de datos masivos mediante el uso de ciertos conceptos o variables clave predefinidos, como “solvencia” o “individuo de alto riesgo”. El algoritmo no define estos conceptos en sí mismo; Los seres humanos (desarrolladores y científicos de datos) eligen a qué conceptos apelar, al menos como punto de partida inicial. Es inverosímil pensar que estas elecciones no estén informadas por el contexto cultural y social, un contexto profundamente moldeado por una historia de desigualdad e injusticia. Las variables que los profesionales de la tecnología eligen incluir, a su vez, influyen significativamente en cómo el algoritmo procesa los datos y las recomendaciones que finalmente hace.

Tomar decisiones sobre los conceptos que sustentan los algoritmos no es un problema puramente tecnológico. Por ejemplo, un desarrollador de un algoritmo de vigilancia predictiva inevitablemente toma decisiones que determinan qué miembros de la comunidad se verán afectados y cómo. Tomar las decisiones correctas en este contexto es tanto una empresa moral como técnica. Esto no es menos cierto cuando las consecuencias exactas son difíciles de prever incluso para los desarrolladores. Los nuevos productos farmacéuticos a menudo tienen efectos secundarios inesperados, pero esa es precisamente la razón por la que se someten a extensas rondas de pruebas y ensayos controlados antes de que se aprueben para su uso, sin mencionar la posibilidad de ser retirados en casos de defectos graves e imprevistos.

La imprevisibilidad no es, por tanto, una excusa para la quietud moral cuando hay tanto en juego. Si la tecnología de IA es realmente impredecible, esto solo presenta más razones para la precaución y la moderación al implementar estas tecnologías. Esta precaución es particularmente necesaria cuando la IA se utiliza para realizar tareas tan importantes como asignar los recursos de un departamento de policía o evaluar la solvencia de los compradores de vivienda por primera vez.

Los desarrolladores no pueden simplemente preguntar: “¿Qué debo hacer para corregir mi algoritmo?” Más bien deben preguntarse: “¿Cómo interactúa mi algoritmo con la sociedad en general, y como es actualmente, incluidas sus desigualdades estructurales?”

Decir que estas elecciones son deliberadas no es sugerir que sus consecuencias negativas sean siempre, o incluso a menudo, intencionales. Es posible que haya algunos desarrolladores de IA “malos” claramente identificables que deban ser detenidos, pero nuestro punto más importante es que todos los desarrolladores, en general, saben lo suficiente sobre estas tecnologías para ser considerados cómplices de sus resultados, un punto que se oculta cuando actuar como si la tecnología de la IA ya estuviera escapando del control humano. Debemos resistir la tendencia común a pensar que un mundo impulsado por la inteligencia artificial significa que estamos libres no solo de tomar decisiones, sino también de tener que escudriñar y evaluar estas elecciones automatizadas de la manera en que normalmente lo hacemos con las decisiones humanas. (Esta tendencia psicológica a confiar en los resultados de un sistema de toma de decisiones automatizado es lo que los investigadores llaman “sesgo de automatización”).

La complicidad aquí significa que la responsabilidad de la IA la comparten las personas involucradas en su desarrollo y despliegue, independientemente de sus intenciones particulares, simplemente porque saben lo suficiente sobre los posibles daños. Como ha argumentado el científico informático Joshua Kroll , “Si bien la inescrutabilidad estructural frustra a los usuarios y las entidades supervisoras, los creadores y operadores de sistemas siempre determinan que las tecnologías que implementan son aptas para ciertos usos, por lo que ningún sistema es completamente inescrutable”.

El discurso saturado de apocalipsis sobre la IA, por el contrario, fomenta una mentalidad de indefensión aprendida. La percepción popular de que una IA fuerte eventualmente saldrá de nuestro control corre el riesgo de convertirse en una profecía autocumplida, a pesar de la realidad actual de que la IA débil es en gran medida el producto de la deliberación y la toma de decisiones humanas. Evitar la indefensión aprendida y el sesgo de automatización requerirá adoptar un modelo de responsabilidad que reconozca que una variedad de agentes (incluso bien intencionados) deben compartir la responsabilidad de la IA dado su papel en su desarrollo y despliegue.

Al final, el desarrollo responsable y la implementación de una IA débil involucrará no solo a los desarrolladores y diseñadores, sino al público en general. Esto significa que necesitamos, entre otras cosas, analizar las narrativas actuales sobre los posibles costos y beneficios de la IA. Como hemos argumentado, la supuesta neutralidad e inevitabilidad de la IA son mitos dañinos, pero omnipresentes. Desacreditarlos requerirá un proceso continuo de disputa pública y democrática sobre las dimensiones sociales, políticas y morales de la toma de decisiones algorítmicas.

Debemos resistir el discurso saturado de apocalipsis sobre la IA que fomenta una mentalidad de indefensión aprendida.

Ésta no es una propuesta sin precedentes: filósofos y activistas han hecho sugerencias similares que buscan abordar otros problemas morales colectivos complejos, como el cambio climático y la explotación laboral. Así como sus esfuerzos han ayudado a aumentar la conciencia pública y suscitar el debate político sobre esos temas, ya es hora de que nosotros, como público, tomemos en serio nuestras responsabilidades por el presente y las consecuencias sociales que se avecinan de la IA. El sesgo algorítmico no es un problema puramente técnico para los investigadores y profesionales de la tecnología; debemos reconocerlo como un problema moral y político en el que todos nosotros, como ciudadanos democráticos, tenemos un interés. La responsabilidad no puede simplemente descargarse y subcontratarse a desarrolladores de tecnología y corporaciones privadas.

Esto también significa que necesitamos, en parte, pensar críticamente sobre las decisiones del gobierno para adquirir herramientas de aprendizaje automático de corporaciones privadas, especialmente porque estas herramientas se utilizan posteriormente para automatizar parcialmente decisiones que anteriormente tomaban el público democráticamente autorizado, si no elegido directamente. funcionarios. Pero también tendremos que hacer preguntas incómodas sobre nuestro propio papel como público al autorizar y cuestionar el uso de tecnologías de inteligencia artificial por parte de las corporaciones y el estado. Los ciudadanos deben llegar a ver los problemas relacionados con la IA como un problema colectivo para todos nosotros en lugar de un problema técnico solo para ellos. Nuestra propuesta está alineada con una “segunda ola” emergente de pensamiento sobre la responsabilidad algorítmica, como dice el erudito legal Frank Pasqualeit: una perspectiva que cuestiona críticamente “si [ciertos sistemas algorítmicos] deberían usarse en absoluto y, de ser así, quién llega a gobernarlos”, en lugar de preguntar cómo se podrían mejorar dichos sistemas para hacerlos más justos. Esta “segunda” perspectiva tiene implicaciones inmediatas sobre cómo debemos pensar sobre la relación entre el poder democrático y la IA. Como enfatizan Julia Powles y Helen Nissenbaum , “Cualquier sistema de inteligencia artificial que se integre en la vida de las personas debe ser capaz de impugnar, rendir cuentas y reparar a los ciudadanos y representantes del interés público”.

Si utilizar la toma de decisiones algorítmica significa tomar decisiones deliberadas por las que todos estamos enganchados, ¿cómo deberíamos responder exactamente como sociedad democrática? ¿Cuál es nuestro papel, como ciudadanos, en la configuración de la tecnología para una sociedad más justa?

Uno podría tener la tentación de pensar que la novedad sin precedentes del aprendizaje automático puede regularse de manera eficaz solo si logramos crear procedimientos e instituciones democráticos completamente nuevos. Se han propuesto una serie de medidas de este tipo: creación de nuevos departamentos gubernamentales (como el nuevo Departamento de Tecnología propuesto por el candidato presidencial demócrata Andrew Yang), nuevas leyes (como las leyes de protección al consumidor , aplicadas por una especie de “FDA para algoritmos”) , así como nuevas medidas (bastante débiles) para la autorregulación individual voluntaria, como un juramento hipocrático para los desarrolladores.

Un problema con estas propuestas es que refuerzan la indefensión aprendida sobre el sesgo algorítmico; sugieren que hasta que no implementemos cambios institucionales y sociales complejos y a gran escala, no podremos abordar el sesgo algorítmico de manera significativa. Pero hay otra forma de pensar sobre la responsabilidad algorítmica. En lugar de abogar por instituciones y procedimientos democráticos completamente nuevos, ¿por qué no intentar primero cambiar las agendas democráticas existentes ? El establecimiento de una agenda democrática significa permitir a los ciudadanos impugnar y controlar los conceptos que sustentan las reglas de decisión algorítmicas y deliberar sobre si la toma de decisiones algorítmica debe utilizarse en un dominio particular en primer lugar.

Los ciudadanos deben llegar a ver los problemas relacionados con la IA como un problema colectivo para todos nosotros en lugar de un problema técnico solo para ellos.

San Francisco, por ejemplo, prohibió recientemente el uso de herramientas de reconocimiento facial en la policía debido a la creciente cantidad de evidencia empírica de sesgo algorítmico en la tecnología de aplicación de la ley; la junta de supervisores de la ciudad aprobó la ordenanza “Detener la vigilancia secreta” en una votación de 8-1. La ordenanza, que establece que “la tecnología exacerbará la injusticia racial y amenazará nuestra capacidad de vivir libres de la supervisión gubernamental continua”, también establece mecanismos de responsabilidad más amplios más allá del uso de la tecnología de reconocimiento facial en la vigilancia, como un requisito que la ciudad las agencias obtienen la aprobación antes de comprar e implementar otros tipos de tecnología de vigilancia.

Abordar cuestiones de justicia algorítmica a través del proceso democrático daría a los miembros de las comunidades más afectadas por el sesgo algorítmico un poder democrático más directo sobre decisiones cruciales relacionadas con la IA débil, no solo después de su implementación, sino también en la etapa de diseño. La nueva ordenanza de San Francisco ejemplifica la importancia de brindar oportunidades significativas para la deliberación democrática de abajo hacia arriba y la impugnación democrática de las herramientas algorítmicas, idealmente antes de que se implementen: “Decisiones sobre si las tecnologías de vigilancia deben financiarse, adquirirse o utilizarse y cómo deben utilizarse, y si los datos de tales tecnologías deben ser compartidos, debe hacerse solo después de que se haya solicitado una contribución significativa del público y se le haya dado un peso significativo ”.

Procedimientos locales de abajo hacia arriba similares al modelo de San Francisco pueden y deben implementarse en otras comunidades, en lugar de simplemente esperar la creación de instituciones reguladoras de arriba hacia abajo más integrales. Ya es posible una supervisión pública significativa sobre el desarrollo y la implementación de la IA. En lugar de permitir que los profesionales de la tecnología naveguen por la ética de la IA por sí mismos, nosotros, el público, deberíamos estar incluidos en las decisiones sobre si se implementará la IA y con qué fines, y cómo. Además, incluso una vez que creemos nuevas instituciones democráticas a mayor escala con el poder de regular legalmente la IA de una manera significativa, los procedimientos democráticos de abajo hacia arriba seguirán siendo esenciales: juegan un papel crucial en la identificación de las agendas que tales instituciones deben seguir.

Pasar a este enfoque de establecimiento de agenda significa incorporar una perspectiva ex ante cuando pensamos en la responsabilidad algorítmica, en lugar de resignarnos a una actitud insensible, ex post , de “esperar y ver”. Cuando esperamos y vemos, dejamos que las corporaciones y los profesionales tomen la iniciativa y establezcan los términos. Mientras tanto, esperamos que quienes ya están experimentando una injusticia social significativa sigan soportando su carga.

Para asumir la plena responsabilidad de cómo la tecnología da forma a nuestras vidas, tendremos que hacer que el despliegue de la IA sea democráticamente discutible al incluirlo en nuestras agendas democráticas.

Por supuesto, cambiar las agendas democráticas hacia decisiones sobre herramientas algorítmicas no resolverá por completo el problema del sesgo algorítmico . Para asumir la plena responsabilidad de cómo la tecnología da forma a nuestras vidas en el futuro, tendremos que hacer que el despliegue de IA débil sea democráticamente impugnable al incluirlo en nuestras agendas democráticas. Dicho esto, eventualmente tendremos que combinar esa estrategia con un esfuerzo por establecer instituciones que puedan hacer cumplir el uso justo y equitativo de la tecnología una vez que se haya implementado.

En otras palabras, una crítica democrática de la injusticia algorítmica requiere una perspectiva tanto ex ante como ex post . Para que podamos comenzar a pensar en la responsabilidad ex post de una manera significativa, es decir, de una manera que realmente refleje las preocupaciones y las experiencias vividas de los más afectados por las herramientas algorítmicas, primero debemos hacerlo posible para la sociedad en su conjunto. , no solo a los empleados de la industria tecnológica, para hacer preguntas ex ante más profundas (por ejemplo, “¿Deberíamos utilizar una IA débil en este dominio?”). Cambiar la agenda democrática es un requisito previo para abordar la injusticia algorítmica, no solo un objetivo político entre muchos.

El establecimiento de una agenda democrática puede ser un mecanismo poderoso para ejercer el control popular sobre el uso estatal y empresarial de la tecnología, y para impugnar las amenazas de la tecnología a nuestros derechos. El establecimiento de una agenda eficaz, por supuesto, significará acoplar el poder de establecimiento de la agenda del público con un poder tangible de toma de decisiones de abajo hacia arriba, en lugar de simplemente ejercer nuestros derechos de deliberación y consulta.

Aquí es donde podemos aprender de otras innovaciones democráticas recientes, como el presupuesto participativo, en el que las decisiones locales y municipales sobre cómo asignar recursos para infraestructura, energía, salud y política ambiental las toman directamente los propios residentes después de varias rondas de reuniones colectivas. deliberación. Permitir una participación democrática más sólida desde el principio nos ayuda a identificar los tipos de preocupaciones y problemas que debemos priorizar. En lugar de apresurarnos a encontrar soluciones rápidas y descendentes destinadas al control de calidad, la optimización y la neutralidad, primero debemos aclarar qué tipo de problema particular estamos tratando de resolver en primer lugar. Hasta que lo hagamos, la toma de decisiones algorítmicas continuará afianzando la injusticia social, incluso cuando los optimistas tecnológicos la anuncian como la cura para los mismos males que exacerba.

MIT- Las mascarillas reducen el riesgo de contagio entorno al 40%

 

MIT, hacer el tejido estirable, compresible y casi indestructible.

 

Fuente de la Noticia

Related posts

La nueva era de la inteligencia artificial con ChatGPT 4.0

Externalización de Back-Office a Colombia: BPO, Centros de Contacto y CX

Samsung Galaxy s22 ultra: la mejor opción en telefonía móvil