La Junta de Supervisión de Meta dice que un video viral dejado en Facebook amenazaba a las personas LGBTQ+ en Nigeria

ABUYA, Nigeria — La junta de supervisión de Meta expresó su seria preocupación el martes por el hecho de que la compañía no haya eliminado un video gráfico viral que muestra a dos hombres sangrando después de que aparentemente fueron golpeados por ser supuestamente homosexuales.

El vídeo fue publicado en Nigeria, uno de los más de 30 de los 54 países de África donde la homosexualidad es criminalizada por leyes que obtienen un amplio apoyo público a pesar de las garantías constitucionales de libertades. Estas leyes se utilizan a menudo para apuntar y arrestar ilegalmente personas sospechosas de ser homosexuales, y los abusos contra ellos a menudo se ignoran.

El informe dijo que el daño causado por el video, que fue visto más de 3,6 millones de veces entre diciembre de 2023 y febrero de este año, fue “inmediato e imposible de deshacer”.

La junta dijo que el contenido “compartió y se burló de la violencia y la discriminación” y, aunque fue reportado varias veces y revisado por tres moderadores humanos, permaneció en Facebook durante aproximadamente cinco meses a pesar de violar cuatro reglas diferentes.

“Al dejar el vídeo, aumentaron las probabilidades de que alguien identificara a los hombres y de que la publicación alentara a los usuarios a dañar a otras personas LGBTQIA+ en Nigeria”, dijo el panel. “Incluso después de que fue eliminado, la investigación de la Junta muestra que todavía quedaban secuencias del mismo video en Facebook”.

En el vídeo, se ve a dos hombres sangrando mientras una multitud de personas los interrogaba sobre su identidad y orientación sexual.

No se pudo contactar a Meta para hacer comentarios inmediatos.

La compañía admitió dos errores con respecto a dicho video, dijo el panel, ya que sus sistemas automatizados identificaron el idioma hablado en el video como inglés, mientras que era el idioma igbo hablado en el sureste de Nigeria “pero no respaldado por Meta para la moderación de contenido a escala”. ”, y que los equipos de revisión humana de Meta también identificaron erróneamente el idioma como swahili.

“Esto genera preocupaciones sobre cómo se trata el contenido en idiomas no admitidos, la elección de idiomas que la empresa admite para la revisión a escala y la precisión de las traducciones proporcionadas a los revisores que trabajan en varios idiomas”, dijo el panel.

En su informe, la junta recomendó a Meta actualizar su Estándar comunitario de coordinación de daños y promoción del crimen para incluir ejemplos claros de “grupos de riesgo de salida”, realizar una evaluación de la exactitud de la aplicación de la prohibición de exponer la identidad o la ubicación de aquellos que supuestamente son un miembro de dichos grupos, asegúrese de que los sistemas de detección de idiomas identifiquen el contenido en idiomas no admitidos y proporcionen traducciones precisas mientras dirigen el contenido para su revisión.

Fuente