Connect with us

Tecnología

Meta para ‘evaluar la viabilidad’ de la revisión de los derechos humanos en las prácticas de Etiopía

Published

on

OnePlus, OnePlus 9RT launch event, oneplus 9RT india launch,

El propietario de Facebook, Meta Platforms, dijo el jueves que «evaluaría la viabilidad» de encargar una evaluación independiente de los derechos humanos en su trabajo en Etiopía, luego de que su junta de supervisión recomendara una revisión de cómo se han utilizado Facebook e Instagram para difundir contenido que aumenta el riesgo de violencia allí.

La junta, establecida por la empresa para abordar las críticas sobre su manejo del material problemático, toma decisiones vinculantes sobre una pequeña cantidad de casos de moderación de contenido desafiantes y brinda recomendaciones de políticas no vinculantes.

Meta ha estado bajo el escrutinio de los legisladores y reguladores por la seguridad del usuario y el manejo de los abusos en sus plataformas en todo el mundo, particularmente después de que la denunciante Frances Haugen filtrara documentos internos que mostraban las dificultades de la empresa para controlar el contenido en países donde era más probable que ese tipo de discurso causara daños, incluida Etiopía.

Miles han muerto y millones han sido desplazados durante un conflicto de un año entre el gobierno etíope y las fuerzas rebeldes de la región norteña de Tigray.

El gigante de las redes sociales dijo que ha “invertido recursos significativos en Etiopía para identificar y eliminar contenido potencialmente dañino”, como parte de su respuesta a las recomendaciones de diciembre de la junta sobre un caso relacionado con contenido publicado en el país.

El mes pasado, la junta de supervisión confirmó la decisión original de Meta de eliminar una publicación que alegaba la participación de civiles de la etnia tigraya en atrocidades en la región de Amhara en Etiopía. Como Meta había restaurado la publicación después de la apelación del usuario a la junta, la empresa tuvo que eliminar nuevamente el contenido.

El jueves, Meta dijo que aunque había eliminado la publicación, no estaba de acuerdo con el razonamiento de la junta de que debería haber sido eliminada porque era un “rumor no verificado” que aumentaba significativamente el riesgo de violencia inminente. Dijo que esto impondría “un estándar de publicación periodística a las personas”.

Un portavoz de la junta de supervisión dijo en un comunicado: “Las políticas existentes de Meta prohíben los rumores que contribuyen a la violencia inminente que no se pueden desacreditar en un período de tiempo significativo, y
la Junta hizo recomendaciones para garantizar que estas políticas se apliquen de manera efectiva en situaciones de conflicto”.

“Los rumores que alegan que un grupo étnico es cómplice de atrocidades, como se encontró en este caso, tienen el potencial de provocar daños graves a las personas”, dijeron.

La junta había recomendado que Meta encargara una evaluación de diligencia debida en materia de derechos humanos, que se completaría en seis meses, que debería incluir una revisión de las capacidades lingüísticas de Meta en Etiopía y una revisión de las medidas adoptadas para evitar el uso indebido de sus servicios en el país.

Sin embargo, la compañía dijo que no todos los elementos de esta recomendación “pueden ser factibles en términos de tiempo, ciencia de datos o enfoque”. Dijo que continuaría con su debida diligencia existente en materia de derechos humanos y debería tener una actualización sobre si podría actuar según la recomendación de la junta en los próximos meses.

Los informes anteriores de Reuters sobre Myanmar y otros países han investigado cómo Facebook luchó para monitorear el contenido en todo el mundo en diferentes idiomas. En 2018, los investigadores de derechos humanos de la ONU dijeron que el uso de Facebook había desempeñado un papel clave en la difusión del discurso de odio que alimentó la violencia en Myanmar.

Meta, que ha dicho que fue demasiado lento para evitar la desinformación y el odio en Myanmar, ha dicho que la empresa ahora tiene hablantes nativos en todo el mundo que revisan contenido en más de 70 idiomas que trabajan para detener el abuso en sus plataformas en lugares donde hay una mayor riesgo de conflicto y violencia.

La junta también recomendó que Meta reescribiera su declaración de valores sobre seguridad para reflejar que el discurso en línea puede representar un riesgo para la seguridad física de las personas y su derecho a la vida. La empresa dijo que haría cambios a este valor, en una implementación parcial de la recomendación.

(Reporte de Elizabeth Culliford Editado por Nick Zieminski)

La junta, establecida por la empresa para abordar las cru00edticas sobre su manejo del material problemu00e1tico, toma decisiones vinculantes sobre una pequeu00f1a cantidad de casos de moderaciu00f3n de contenido desafiantes y brinda recomendaciones de polu00edticas no vinculantes.

n

Meta ha estado bajo el escrutinio de los legisladores y reguladores por la seguridad del usuario y el manejo de los abusos en sus plataformas en todo el mundo, particularmente despuu00e9s de que la denunciante Frances Haugen filtrara documentos internos que mostraban las dificultades de la empresa para controlar el contenido en pau00edses donde era mu00e1s probable que ese tipo de discurso causara dau00f1os, incluida Etiopu00eda.

n

Miles han muerto y millones han sido desplazados durante un conflicto de un au00f1o entre el gobierno etu00edope y las fuerzas rebeldes de la regiu00f3n norteu00f1a de Tigray.

nn

El gigante de las redes sociales dijo que ha u201cinvertido recursos significativos en Etiopu00eda para identificar y eliminar contenido potencialmente dau00f1inou201d, como parte de su respuesta a las recomendaciones de diciembre de la junta sobre un caso relacionado con contenido publicado en el pau00eds.

n

El mes pasado, la junta de supervisiu00f3n confirmu00f3 la decisiu00f3n original de Meta de eliminar una publicaciu00f3n que alegaba la participaciu00f3n de civiles de la etnia tigraya en atrocidades en la regiu00f3n de Amhara en Etiopu00eda. Como Meta habu00eda restaurado la publicaciu00f3n despuu00e9s de la apelaciu00f3n del usuario a la junta, la empresa tuvo que eliminar nuevamente el contenido.

n

El jueves, Meta dijo que aunque habu00eda eliminado la publicaciu00f3n, no estaba de acuerdo con el razonamiento de la junta de que deberu00eda haber sido eliminada porque era un u201crumor no verificadou201d que aumentaba significativamente el riesgo de violencia inminente. Dijo que esto impondru00eda u201cun estu00e1ndar de publicaciu00f3n periodu00edstica a las personasu201d.

n

Un portavoz de la junta de supervisiu00f3n dijo en un comunicado: u201cLas polu00edticas existentes de Meta prohu00edben los rumores que contribuyen a la violencia inminente que no se pueden desacreditar en un peru00edodo de tiempo significativo, y
la Junta hizo recomendaciones para garantizar que estas polu00edticas se apliquen de manera efectiva en situaciones de conflictou201d.

n

u201cLos rumores que alegan que un grupo u00e9tnico es cu00f3mplice de atrocidades, como se encontru00f3 en este caso, tienen el potencial de provocar dau00f1os graves a las personasu201d, dijeron.

n

La junta habu00eda recomendado que Meta encargara una evaluaciu00f3n de diligencia debida en materia de derechos humanos, que se completaru00eda en seis meses, que deberu00eda incluir una revisiu00f3n de las capacidades lingu00fcu00edsticas de Meta en Etiopu00eda y una revisiu00f3n de las medidas adoptadas para evitar el uso indebido de sus servicios en el pau00eds.

ntntn

Sin embargo, la compau00f1u00eda dijo que no todos los elementos de esta recomendaciu00f3n u201cpueden ser factibles en tu00e9rminos de tiempo, ciencia de datos o enfoqueu201d. Dijo que continuaru00eda con su debida diligencia existente en materia de derechos humanos y deberu00eda tener una actualizaciu00f3n sobre si podru00eda actuar segu00fan la recomendaciu00f3n de la junta en los pru00f3ximos meses.

n

Los informes anteriores de Reuters sobre Myanmar y otros pau00edses han investigado cu00f3mo Facebook luchu00f3 para monitorear el contenido en todo el mundo en diferentes idiomas. En 2018, los investigadores de derechos humanos de la ONU dijeron que el uso de Facebook habu00eda desempeu00f1ado un papel clave en la difusiu00f3n del discurso de odio que alimentu00f3 la violencia en Myanmar.

n

Meta, que ha dicho que fue demasiado lento para evitar la desinformaciu00f3n y el odio en Myanmar, ha dicho que la empresa ahora tiene hablantes nativos en todo el mundo que revisan contenido en mu00e1s de 70 idiomas que trabajan para detener el abuso en sus plataformas en lugares donde hay una mayor riesgo de conflicto y violencia.

n

La junta tambiu00e9n recomendu00f3 que Meta reescribiera su declaraciu00f3n de valores sobre seguridad para reflejar que el discurso en lu00ednea puede representar un riesgo para la seguridad fu00edsica de las personas y su derecho a la vida. La empresa dijo que haru00eda cambios a este valor, en una implementaciu00f3n parcial de la recomendaciu00f3n.

n

(Reporte de Elizabeth Culliford Editado por Nick Zieminski)

n

rn
Fuente ","author":{"@type":"Person","name":"notimundo","url":"https://noticiasdelmundo.news/author/jucebo/","sameAs":["https://noticiasdelmundo.news"]},"articleSection":["Tecnologu00eda"],"image":{"@type":"ImageObject","url":"https://noticiasdelmundo.news/wp-content/uploads/2022/01/Meta-para-evaluar-la-viabilidad-de-la-revision-de-los.jpg","width":1200,"height":667},"publisher":{"@type":"Organization","name":"","url":"https://noticiasdelmundo.news","logo":{"@type":"ImageObject","url":""},"sameAs":["https://www.facebook.com/mundonoticiasnews","http://jnews.jegtheme.com/default/feed/"]}}

Fuente de la Noticia

Advertisement
Advertisement

Tendencias