La seguridad electrónica supone una amenaza masiva para los gigantes tecnológicos

El regulador de seguridad en línea de Australia está intensificando su campaña para proteger a los niños de la explotación sexual, enviando avisos legales a una serie de empresas tecnológicas que las obligarán a hacer más para erradicar el abuso sexual infantil en línea.

Los avisos, emitidos por la Comisionada de Seguridad Electrónica, Julie Inman Grant, requerirán que Apple, Google, Meta y Microsoft informen al regulador cada seis meses sobre las medidas que han implementado para eliminar el material abusivo.

También se han enviado avisos a Discord, Snap, Skype y WhatsApp, que es un servicio de mensajería propiedad de Meta.

Los gigantes tecnológicos deben explicar a la comisión cómo están abordando el material de abuso infantil, el abuso transmitido en vivo, el acoso en línea, la extorsión sexual y, cuando corresponda, la producción de material de abuso infantil «sintético» o deepfake creado utilizando IA generativa.

La dramática acción legal siguió al descubrimiento de una serie de problemas de seguridad en 2022 y 2023 en torno a cómo las plataformas protegen a los niños del abuso.

“Cuando enviamos avisos a estas empresas en 2022 y 2023, algunas de sus respuestas fueron alarmantes, pero no sorprendentes, ya que habíamos sospechado durante mucho tiempo que existían brechas y diferencias significativas en las prácticas de los servicios”, dijo la Sra. Grant.

“En nuestras conversaciones posteriores con estas empresas, todavía no hemos visto cambios o mejoras significativas en estas deficiencias de seguridad identificadas.

“Apple y Microsoft dijeron en 2022 que no intentan detectar de forma proactiva el material de abuso infantil almacenado en sus servicios iCloud y OneDrive ampliamente utilizados.

“Esto ocurre a pesar del hecho de que es bien sabido que estos servicios de almacenamiento de archivos sirven como refugio para que el abuso sexual infantil y el contenido a favor del terrorismo persistan y prosperen en la oscuridad.

“También supimos que Skype, Microsoft Teams, FaceTime y Discord no utilizaron ninguna tecnología para detectar la transmisión en vivo de abuso sexual infantil en videochats.

“Esto ocurre a pesar de la evidencia del uso extensivo de Skype1, en particular, para este delito de larga data y proliferante.

“Meta también admitió que no siempre compartía información entre sus servicios cuando una cuenta era baneada por abuso infantil, lo que significa que los agresores baneados en Facebook podrían seguir perpetrando abusos a través de sus cuentas de Instagram y los agresores baneados en WhatsApp podrían no ser baneados ni en Facebook ni en Instagram”.

La comisión afirmó que ocho servicios diferentes de Google, incluido YouTube, no están bloqueando enlaces a sitios web que se sabe que contienen material de abuso infantil, a pesar de la disponibilidad de bases de datos de estos sitios web de abuso conocido que muchos servicios utilizan.

Los investigadores de eSafety también concluyen que Snapchat no utiliza ninguna herramienta para detectar el acoso infantil en los chats.

Internet y las plataformas tecnológicas gigantes que lo dominan permiten a los depredadores aprovecharse de los niños desde posiciones de anonimato.

Un informe de 2023 del Centro Nacional para Niños Desaparecidos y Explotados registró más de 36,2 millones de informes de sospecha de explotación sexual infantil en proveedores de servicios electrónicos.

Amazon Photos reportó 25,497 casos de aparente abuso, mientras que Dropbox realizó 54,045 informes.

Facebook reportó 17.838.422 casos e Instagram 11.430.007.

Snapchat reportó 713.055 casos de abuso, mientras que X, antes conocida como Twitter, realizó 273.416 informes.

Apple realizó 267 informes, a pesar de su vasta infraestructura en la nube.

Los proveedores con sede en Estados Unidos están obligados por ley a informar sobre casos de «aparente pornografía infantil» a la CyberTipline del centro cuando tienen conocimiento de ellos, pero no existen requisitos legales para realizar esfuerzos proactivos para detectar este contenido o qué información debe incluir un ESP en un informe, dijo el centro.

La Sra. Grant, a quien el parlamento le ha encomendado garantizar la seguridad en línea en Australia, dijo que los avisos informarían a la comisión si los gigantes tecnológicos habían realizado alguna mejora en sus medidas de seguridad desde 2022 y los harían «responsables del daño que todavía se perpetra contra los niños en sus servicios».

“Sabemos que algunas de estas empresas han estado realizando mejoras en algunas áreas y esta es la oportunidad de mostrarnos el progreso en todos los ámbitos”, dijo.

Los principales riesgos potenciales de seguridad considerados en esta ronda de avisos incluyen la capacidad de los adultos de contactar a niños en una plataforma, riesgos de extorsión sexual, así como características como transmisión en vivo, cifrado de extremo a extremo, inteligencia artificial generativa y sistemas de recomendación, dijo la comisión.

El cumplimiento de un aviso es obligatorio y puede haber sanciones financieras de hasta $782,500 por día para los servicios que no respondan.

Las empresas tendrán hasta el 15 de febrero de 2025 para proporcionar su primera ronda de respuestas.

Google

Fuente de la Noticia

Related posts

Petición de cambio tras las ‘impactantes’ muertes en la carretera

Bunnings contraataca a la acusación de envenenamiento por plomo

Un descubrimiento legal revela las filtraciones de Linda Reynolds