Las estafas deepfake han robado millones a las empresas. Los expertos advierten que podría empeorar

Rostro generado en 3D que representa la tecnología de inteligencia artificial

La nube de movimiento | Stock | Getty Images

Una ola creciente de estafas deepfake ha saqueado millones de dólares de empresas de todo el mundo, y los expertos en ciberseguridad advierten que podría empeorar a medida que los delincuentes exploten la IA generativa para cometer fraude.

Un deep fake es un video, sonido o imagen de una persona real que ha sido alterado y manipulado digitalmente, a menudo mediante inteligencia artificial, para tergiversarla de manera convincente.

En uno de los casos más importantes conocidos de este año, un trabajador financiero de Hong Kong fue engañado para que transfiriera más de 25 millones de dólares a estafadores que utilizaban tecnología deepfake y se disfrazaban de colegas en una videollamada. dijeron las autoridades a los medios locales en febrero.

La semana pasada, la firma de ingeniería británica Arup confirmó a CNBC que era la empresa involucrada en ese caso, pero no pudo entrar en detalles sobre el asunto debido a la investigación en curso.

Estas amenazas han ido creciendo como resultado de la popularización del Chat GPT de Open AI, lanzado en 2022, que rápidamente impulsó la tecnología de IA generativa a la corriente principal, dijo David Fairman, director de información y seguridad de la empresa de ciberseguridad Netskope.

«La accesibilidad pública de estos servicios ha reducido la barrera de entrada para los ciberdelincuentes: ya no necesitan tener habilidades tecnológicas especiales», dijo Fairman.

El volumen y la sofisticación de las estafas se han ampliado a medida que la tecnología de inteligencia artificial continúa evolucionando, añadió.

Tendencia creciente

Se pueden utilizar varios servicios de inteligencia artificial generativa para generar texto, imágenes y contenido de video de apariencia humana y, por lo tanto, pueden actuar como herramientas poderosas para actores ilícitos que intentan manipular y recrear digitalmente a ciertos individuos.

Un portavoz de Arup dijo a CNBC: «Como muchas otras empresas en todo el mundo, nuestras operaciones están sujetas a ataques regulares, incluido fraude de facturas, estafas de phishing, suplantación de voz de WhatsApp y deepfakes».

Según los informes, el trabajador de finanzas había asistido a la videollamada con personas que se cree que eran el director financiero de la empresa y otros miembros del personal, quienes le solicitaron que hiciera una transferencia de dinero. Sin embargo, el resto de asistentes presentes en aquel encuentro habían sido, en realidad, deepfakes recreados digitalmente.

Arup confirmó que en el incidente se utilizaron «voces e Getty Images» y añadió que «el número y la sofisticación de estos ataques ha aumentado considerablemente en los últimos meses».

Los medios estatales chinos informaron de un caso similar. En la provincia de Shanxi este año involucró a una empleada financiera, que fue engañada para transferir 1,86 millones de yuanes (262.000 dólares) a la cuenta de un estafador después de una videollamada con un deepfake de su jefe.

Implicaciones más amplias

Además de los ataques directos, las empresas están cada vez más preocupadas por otras formas en que las fotos, los vídeos o los discursos deepfake de sus superiores podrían utilizarse de forma maliciosa, afirman los expertos en ciberseguridad.

Según Jason Hogg, experto en ciberseguridad y ejecutivo residente de Great Hill Partners, los deepfakes de miembros de alto rango de una empresa se pueden utilizar para difundir noticias falsas para manipular los precios de las acciones, difamar la marca y las ventas de una empresa y difundir otra desinformación dañina.

«Eso es sólo una muestra de lo que ocurre», dijo Hogg, quien anteriormente trabajó como agente especial del FBI.

Destacó que la IA generativa es capaz de crear deepfakes basados ​​en un tesoro de información digital, como contenido disponible públicamente alojado en las redes sociales y otras plataformas de medios.

En 2022, Patrick Hillmann, director de comunicaciones de Binance, afirmó en un publicación de blog que Los estafadores lo habían falsificado basándose en entrevistas de noticias y apariciones en televisión anteriores, usándolo para engañar a clientes y contactos para que se reunieran.

Fairman de Netskope dijo que tales riesgos habían llevado a algunos ejecutivos a comenzar a eliminar o limitar su presencia en línea por temor a que los ciberdelincuentes pudieran utilizarla como munición.

La tecnología deepfake ya se ha generalizado fuera del mundo empresarial.

De imagenes pornograficas falsas a vídeos manipulados promocionando utensilios de cocina, celebridades como Taylor Swift han sido víctimas de la tecnología deepfake. Los deepfakes de políticos también han proliferado.

Mientras tanto, algunos estafadores han hizo deepfakes de familiares y amigos de individuos en un intento de engañarlos sin dinero.

Según Hogg, los problemas más amplios se acelerarán y empeorarán durante un período de tiempo, ya que la prevención del delito cibernético requiere un análisis cuidadoso para desarrollar sistemas, prácticas y controles para defenderse de las nuevas tecnologías.

Sin embargo, los expertos en ciberseguridad dijeron a CNBC que las empresas pueden reforzar las defensas contra las amenazas impulsadas por la IA mediante una mejor educación del personal, pruebas de ciberseguridad y exigiendo palabras clave y múltiples capas de aprobaciones para todas las transacciones, algo que podría haber evitado casos como el de Arup.

Fuente de la Noticia

Related posts

Oficina de Derechos Humanos de la ONU advierte que el trabajo forzoso está institucionalizado y es peligroso

El número de pasajeros de Singapore Airlines aumentó casi un 14 por ciento en junio

Japam reinventa el Raksha Bandhan con una innovadora caja Rakhi que combina tradición y modernidad