in

Por qué las tecnologías de vigilancia de Europa deben preocuparte ya

Por qué las tecnologías de vigilancia de Europa deben preocuparte ya

Cuando un grupo de inmigrantes llega en patera a las costas andaluzas, lo primero que suele oír de la boca de las autoridades es una pregunta: «¿Cuántos años tienes?».

La respuesta suele ser la misma. «16». «15». «17». Mientras que un adulto corre el riesgo de ser deportado, los menores de 18 años, en cambio, adquieren el derecho a ser tutelados por la administración. Pero su travesía no termina ahí.

El diario El País recogía hace 2 años el testimonio de un joven subsahariano, Malick, al que la policía llevó al hospital. Un médico le puso en el brazo «una máquina». «Cuando la vi pensé que era una radiografía, pero ¿por qué?», se preguntó entonces. Así son las pruebas médicas y tecnológicas con las que las autoridades españolas tratan de determinar la edad real de los inmigrantes.

La pandemia ha puesto a prueba la capacidad de Europa para blindar la privacidad de sus ciudadanos: «No hay conflicto entre salud y datos»

Los análisis médicos no son determinantes, la palabra del fiscal sí. Pero los forenses, asociaciones humanitarias, ONG e incluso un contundente informe del Defensor del Pueblo han criticado estas prácticas que intentan determinar la edad de los inmigrantes recién llegados a España. «La máquina dice que tengo 18 años, pero la máquina no es mi madre. Solo mi madre sabe cuándo nací», resume un testimonio que se recoge en este último documento.

El dilema no termina ahí. El CPDP, uno de los mayores congresos sobre privacidad de todo el mundo que se ha celebrado esta semana de forma telemática, ha albergado un panel de expertos y activistas en el que se ha discutido sobre cómo combatir «la ciencia ficción» de forma «colectiva»: un análisis sobre las nuevas tecnologías de vigilancia que se están implementando desde instituciones políticas.

En septiembre Donald Trump, todavía al frente del Gobierno de Estados Unidos, planteó crear una base de datos para almacenar datos biométricos de inmigrantes. Entre los datos a guardar se destacaba la huella, la voz e incluso el iris de las personas.

Multa histórica a Grindr: casi 10 millones de euros por compartir datos de sus usuarios, etiquetados según su orientación sexual, a 5 plataformas publicitarias

Pero ya en 2019 el Parlamento Europeo aprobó la creación de un sistema centralizado que gestionase toda esa información tanto de ciudadanos europeos como de extranjeros, donde también se pudiese almacenar huellas dactilares o incluso imágenes faciales, como detalló entonces Xataka

El año pasado la medida se concretó un poco más: en septiembre de 2020 se supo que sería la agencia eu-LISA, responsable de supervisar los proyectos tecnológicos de Defensa e Inteligencia de la Unión, había adjudicado a una unión de empresas francesas la creación de esta gran base de datos que recopilará a partir de 2022 información de «más de 400 millones de personas».

Europa como un panóptico

«La idea de una Europa fortaleza no es nueva», advierte Petra Molnar, investigadora de la York University de Toronto, Canadá. «Pero ahora nos enfrentamos a una tecnología expansiva que la convierte en un panóptico».

Un panóptico es un tipo de arquitectura carcelaria en la que un guardián, desde una torre de control, puede vigilar a todos los presos en sus celdas. Para ello, los cubículos se disponen alrededor del torreón. Hoy día, las tecnologías de vigilancia que se están implementando en Europa serían ese torreón. «Es una de las cosas que más nos preocupan de Europa: sus experimentos tecnológicos», insiste Molnar.

Molnar no estuvo solo en el panel. Alyna Smith, abogada en la Plataforma para la Cooperación Internacional para los Inmigrantes Indocumentados, PICUM por sus siglas en inglés; Amba Kak, directora de Estrategia Global del instituto neoyorquino AI Now; y Chris Jones, director ejecutivo de la organización en defensa de las libertades civiles y tecnológicas Statewatch, también dieron su punto de vista.

La Eurocámara, denunciada por incumplir una sentencia europea: la web de su servicio de PCR para diputados transfiere datos de usuarios a EEUU

No es el único panel del CPDP que ha profundizado en los riesgos y peligros que tecnologías como el reconocimiento facial, el big data, la IA o el tratamiento de datos biométricos pueden suponer para las libertades civiles. También en otra sesión, uno de los responsables de la autoridad danesa para la protección de datos trataba de dar una idea algo más alentadora sobre el reconocimiento facial: «Cuando estás en un aeropuerto y enseñas tu pasaporte, el sistema es capaz de comparar tu rostro con el carnet». Todo para agilizar un mero trámite.

La dicotomía entre seguridad y libertad nunca se ha ido de Europa, pero las dudas se multiplican con cada desarrollo tecnológico. Molnar, de la York University, habla por ejemplo de cómo legar muchas decisiones en tecnologías con algoritmos automatizados pueden ser «inadecuadas» por cómo esto puede afectar a la vida de la gente. Sobre todo para los colectivos más vulnerabilizados.

En una reciente entrevista con Business Insider España, Gemma Galdon, CEO de Eticas Consulting, detallaba cómo los sesgos que se introducen involuntariamente en los algoritmos de las IA que se desarrollan pueden acabar provocando perjuicios a colectivos vulnerables. En su conversación con este medio, detallaba que los algoritmos los crean los seres humanos, e irremediablemente —y debido a la falta de formación en estudios sociales— podían acabar produciendo esos perjuicios.

Temas que «desafortunadamente, no interesan»

Chris Jones, de Statewatch, recuerda cómo hace unos 4 años interpeló a varios altos cargos de la Comisión Europea de entonces, compartiendo su temor a que se desarrollasen tecnologías como el banco de datos biométricos que ahora Europa está empeñada en crear. Entonces le dijeron que esos temores eran infundados. 

4 años después, él sabe que no se equivocaba. En 2019 un periodista de The Intercept probó en la frontera entre Serbia y Hungría un dispositivo tecnológico muy singular. Un policía virtual con una cámara de reconocimiento facial y una tecnología con inteligencia artificial capaz de recoger «microgestos» para determinar si la persona a la que estaba entrevistando y que pretendía cruzar la frontera mentía o no en sus respuestas.

La máquina dio un falso positivo. Dijo que el periodista mentía a pesar de que decía la verdad.

Europa puso 159 millones de euros en multas por vulnerar el RGPD en 2020, casi la mitad de todas las sanciones propuestas desde que está en vigor

La tecnología la comenzaron a desarrollar científicos en un laboratorio británico de la Manchester Metropolitan University, aunque recibió más de 4,5 millones de euros de los fondos Horizon 2020 para innovación y desarrollo tecnológico, por lo que se incorporaron más expertos de otros países europeos. A día de hoy, el bot que entrevista en fronteras lo desarrolla un consorcio llamado iBorderctrl. La empresa que lo lidera, European Dynamics Luxembourg, no quiso participar en un reciente reportaje del líder de Statewatch publicado en The Guardian.

En su artículo, Chris Jones detalla cómo un parlamentario alemán del Partido Pirata ha decidido denunciar a la Comisión Europea por financiar proyectos científicos que según él mismo, «no son éticos y violan derechos fundamentales». iBorderctrl, en concreto, pretende ser una máquina de la verdad, un lector «digital» del pensamiento, que según el eurodiputado Patrick Breyer puede dejar por mentirosos «a personas de color, mujeres, ancianos, niños y discapacitados».

«Le he preguntado a muchas personas sobre qué piensan acerca de este proceso en Europa». La respuesta que recibe Jones es que muchas se encogen de hombros. «Creen que [el banco de datos biométricos] simplemente dará acceso a los agentes a una información a la que igualmente antes ya accedían, lo cual no es cierto», defiende. «Otros simplemente piensan que no es su problema».

Los responsables de privacidad de Google, Twitter y Amazon explican cómo ha cambiado su negocio tras la ley de protección de datos y ya plantean una norma análoga para EEUU

Jones también lamenta que no hay ni la suficiente cobertura mediática a estos asuntos, ni la suficiente discusión política. 

Pero aun así, Alyna Smith, la abogada de la PICUM, encuentra «oportunidades» en todo este embrollo de los derechos digitales y los riesgos de las tecnologías de vigilancia. «Ya abarcábamos políticas migratorias, que demandan de mucha atención y responsabilidad a niveles europeos, pero también derechos de la infancia, y todo tipo de marcos legales», señala.

«Pero los derechos digitales son enormemente importantes desde un marco legal distinto: hay muchas regulaciones y necesitamos apoyarnos en organizaciones que ya están habituadas a estas discusiones». La oportunidad, concretamente, la ve en cómo cada vez hay más colectivos activistas prestando atención a los riesgos que puede entrañar la tecnología para derechos civiles y sociales, en ocasiones tan elementales como el derecho a la privacidad.

Fuente de la Noticia

De La Velocidad Variable De La Tecnología Mercado Proporciona un análisis PEST exhaustivo para 2031 | TechMarket Reporte de América del Norte, Europa, APAC, MEA y América del Sur y Central

Geopolítica, pandemia y tecnología: La dictadura global

Geopolítica, pandemia y tecnología: La dictadura global