Buenaventura en Linea
el uso perverso de la tecnología que 'resucitó' a Lola Flores

el uso perverso de la tecnología que ‘resucitó’ a Lola Flores

Lola Flores vuelve a la vida. Una composición a partir de cientos de imágenes de archivo y de su tono de voz ha servido a Cruzcampo para resucitar a La Faraona en una campaña de publicidad que ya es un éxito por su alcance y repercusión. Pero la tecnología que ha revivido a la folclórica tiene también un reverso oscuro: en manos inadecuadas puede ser empleada con turbios intereses para manipular a la sociedad o a colectivos concretos. Los expertos advierten de que su uso ya ha despertado controversia en ámbitos tan variopintos como el de la pornografía o las fake news.

La combinación de la Inteligencia Artificial con tecnologías de Deep Learning (aprendizaje profundo) permiten realizar cosas inimaginables hace tan sólo algunos años. Es el caso del denominado Deep Fake. Si no has oído hablar de él, estás en el sitio correcto. Se trata de una tecnología que permite realizar vídeos falsos de cualquier persona, esté viva o no. Sólo se necesita un buen paquete de fotografías y audios de la misma. El resultado son creaciones con un nivel de realismo muy alto.

Anteayer Cruzcampo utilizaba esta tecnología para un anuncio con el que promocionar su marca. Haciendo un buen uso de la misma, ‘revivió’ a Lola Flores. La Faraona falleció en 1995 pero ‘leyó’ e ‘interpretó’ un guion creado a medida por la cervecera, en el que se ponía énfasis en la importancia de mantener las raíces.

Sorprendente, ¿verdad? Imagine que se le diera otro uso. Imagine que, por ejemplo, se utilizase a un personaje de influencia pública para lanzar un mensaje falso. Imagine que, como en el caso de Lola Flores, hubiera fallecido. Pongamos el caso de una aparición del presidente del Gobierno de una superpotencia diciendo que declara la guerra a otra, y que se ha lanzado una bomba nuclear sobre su territorio.

El mensaje correría como la espuma por las redes sociales y las consecuencias entre la población serían, cuando menos, imprevisibles. Poner esta tecnología al servicio ‘del mal’ sólo requiere de una dosis de retorcida imaginación, siempre y cuando se disponga de una buena base de datos de imágenes y audios de la persona sobre la que se va a realizar el Deep Fake. Algo relativamente sencillo a través de redes sociales como Youtube, Facebook, Instagram o Vimeo.

La combinación de sistemas de Inteligencia Artificial y Deep Learning permite trabajar mediante algoritmos esas imágenes y audios, para moldear el rostro y gestos de una persona, así como su voz, y hacerla decir cualquier cosa, por peregrina que esta sea.

Su uso en otros ámbitos

– ¿Se puede decir que esta tecnología, en malas manos y en el momento preciso, puede desestabilizar a una población y por ende a la seguridad nacional de un país?

– Sin duda.

El coronel del Ejército del Aire Ángel Gómez de Ágreda detalla a Vozpópuli el poder de manipulación de estas composiciones. Autor del libro Mundo Orwell, el analista es doctorando de la UPM en inteligencia artificial, diplomado de Estado Mayor y se desempeñó como jefe de cooperación del Mando Conjunto de Ciberdefensa en el Centro de Excelencia de Cooperación en Ciberseguridad de la OTAN.

“Si con las fake news en textos o en imágenes estáticas hemos llegado al nivel de desinformación actual, ¿Qué no podrá ocurrir cuando se crean videos con un gran realismo?”, se pregunta el coronel. Según advierte, ya hay recursos para determinar si un vídeo ha sido manipulado, pero el impacto a simple vista es capaz de despertar cualquier tipo de sospecha: “No hace falta cambiar la realidad, basta alterar lo que percibimos de ella”.

Por el momento no se han detectado grandes manipulaciones con Deep Fake en el ámbito político o geoestratégico. El caso más polémico tuvo lugar en el corazón de África: “Ha habido acusaciones de que se han manipulado vídeos en casos como el del presidente de Gabón, que emitió una grabación que le mostraba en un buen estado de salud que la oposición había negado”, señala Gómez de Ágreda.

Sí que se han registrado manipulaciones en otros ámbitos, como en la industria pornográfica, donde se cambiaban las caras de los actores y actrices por personajes famosos o relevantes. “Yo diría que eso ya esperverso de por sí”, reflexiona el analista. A su juicio, “no suele ser necesario que la mentira sobreviva mucho tiempo porque inmediatamente pasamos a otro tema y la revisión de las hemerotecas tiene muy poco efecto”. Pero advierte de que la mayoría de los montajes no buscan ser “creíbles”, sino “emocionar”.

El coronel Pedro Baños, autor de una trilogía sobre la geopolítica y el dominio mundial [Así se domina el mundo, El dominio mundial, El dominio mental] advertía del verdadero alcance de las fake newsen una entrevista reciente con Vozpópuli: “Es un concepto más amplio de lo que se suele transmitir”. En muchas ocasiones estas composiciones pueden llegar desde instituciones oficiales.

En el caso de la tecnología Deep Fake, los expertos recomiendan fijarse en el interior de la boca del protagonista para detectar la manipulación: “Aparece borroso”. Otras manipulaciones, por el contrario, son mucho más discretas y difíciles de detectar.



Fuente de la Noticia

Síguenos

Para que no te pierdas nada de nada.

Lo más leído

%d bloggers like this: