Pero estos sistemas, como la mayoría de cualquier elemento tecnológico, ha evolucionado. Entonces, esta misma inteligencia artificial, ha sido capaz de modificar los detalles de un mapa tomado por satélites. A esa función se le conoce como deepfakes geográficos. Y el problema no es tanto que existan, sino que es mucho más difícil de detectar, cuando son falsos.
“Los geógrafos están preocupados por la difusión de deepfakes de imágenes satelitales. Abren la puerta a múltiples amenazas y aportan un arma más a las campañas de desinformación”, dice la firma de seguridad mencionada.
Peligros de los deepfakes geográficos
En primer lugar, desde Panda Security manifiestan que los deepfakes geográficos son la más reciente versión de una histórica práctica de la humanidad. Detallan que las personas mienten en los mapas desde su misma existencia. Hace miles o cientos de años, lo hicieron con la intención de esconder rutas o para evitar el contra espionaje. Sin embargo, siempre fue una herramienta que estuvo en las manos de estados u organizaciones oficiales.
En cambio, los deepfakes geográficos podrían estar en manos de cualquier persona y para los científicos sería muy difícil de detallar si es falso o real. Lo primero que deberían hacer para abordar el problema, según Panda Security, es aceptar que existen.
“Mientras que muchos profesionales de los SIG (sistemas de información geográfica) han estado celebrando los méritos técnicos del aprendizaje profundo y otros tipos de IA para la resolución de problemas geográficos, pocos han reconocido o criticado públicamente las amenazas potenciales de los deepfakes en el campo de la geografía”, dice investigadores del Universidad de Washington, en un artículo.
En consecuencia, estos mismos expertos ejecutaron tecnologías que se usan para evitar el deepfake en un rostro. Y así fue como se encontraron con que era una función mucho más complicada. Es mucho más fácil crear una imagen de satélite falsa que un video de una persona bailando con el rostro de Shakira, por ejemplo. Pero es más difícil de detectar la captura satelital.
Campañas de desinformación
El ejemplo más claro de peligro, que expone el portal citado, es una campaña de desinformación. Con un mundo lleno de fake news, se podría desacreditar la vocería de un estado que reseñe un incendio forestal o una inundación. Esta imagen, creada por una inteligencia artificial sería capaz de generar revuelo o desmentir, dependiendo de cual sea el caso. Entonces, así se convierte en un problema de estado.
“Si seguimos sin ser conscientes de los deepfakes y sin estar preparados contra ellos, corremos el riesgo de entrar en una distopía de la geografía falsa”, explica la firma. Y con esto expresan que hasta ahora el mayor problema es el no reconocimiento de esta eventualidad.