Mientras Ruanda se preparaba para sus elecciones nacionales el 15 de julio, algo extraño estaba sucediendo en X. Cientos de cuentas parecían estar operando al unísono, publicando mensajes idénticos o extrañamente similares en apoyo del presidente en ejercicio Paul Kagame. Un equipo de investigadores de la Universidad de Clemson comenzó a rastrear la red aparentemente automatizada y descubrió más de 460 cuentas involucradas, que compartían lo que parecían ser mensajes generados por IA.
“La campaña, que muestra varios indicadores de comportamiento inauténtico coordinado, parece estar tratando de afectar el discurso sobre el desempeño del régimen de Kagame”, escribieron los investigadores en Un documento que rastrea la red.
Se trataba del tipo de revelación que normalmente pondría nerviosos a los moderadores, sobre todo en las semanas previas a una elección nacional. Pero cuando el grupo informó de sus hallazgos a X, no pasó nada. Las cuentas marcadas permanecieron activas y la red siguió publicando.
Fue un resultado sorprendente, dada la sensibilidad de las elecciones del país y lo fácil que habría sido detener la red. “Es obvio”, dijo a la BBC el investigador Morgan Wack, quien dirigió el proyecto de Clemson. Resto del mundo“Si prestas atención, está muy claro que podrías cerrar varias de estas cuentas. No hay ningún esfuerzo por cerrar ninguna de ellas”.
La experiencia de Wack es parte de un cambio más amplio en la moderación de X, que ha abierto la puerta a operaciones de influencia en todo el mundo. En los dos años desde que Elon Musk tomó posesión de la empresa, su equipo de confianza y seguridad ha sido diezmado, y el resultado ha sido un goteo constante de redes como la descubierta en Ruanda. Simplemente encontrar las redes es más difícil que nunca, ya que los investigadores deben prescindir del acceso a API y enfrentar crecientes riesgos legales después de que se publique su trabajo.
A medida que X se ha ido retirando de la lucha contra las operaciones de influencia, los riesgos para las democracias no han hecho más que crecer. Ochenta y dos países celebrarán elecciones en algún momento de 2024, incluidos gigantes como India, Sudáfrica y México, así como naciones más pequeñas como Ruanda y Sri Lanka, que los moderadores pasan por alto fácilmente. X no ejerce influencia en todos esos países, pero en los lugares donde sí la tiene, la indiferencia de la plataforma hacia la moderación ha dejado a la democracia alarmantemente vulnerable.
Las organizaciones que monitorean las operaciones de influencia a nivel mundial ya han catalogado varias otras campañas en curso, principalmente centradas en regiones donde X sigue siendo influyente. Solo en los últimos seis meses, el Laboratorio de Investigación Forense Digital (DFRLab) del Atlantic Council ha registrado campañas de influencia dirigidas a desacreditando a los manifestantes georgianos y sembrando confusión alrededor La muerte de un economista egipcio —ambos impulsados por cuentas X no auténticas. Bots de spam en idioma chino han seguido inundando X con términos de búsqueda sensibles, reprimiendo y acosando eficazmente a los grupos chinos disidentes en la plataforma.
Para Wack, la mayor preocupación es cuántas otras campañas pasan desapercibidas. Con tantas elecciones en todo el mundo, es probable que los países con menos atención global o con idiomas menos conocidos queden en el olvido.
“Si lo hacen en tagalo en Filipinas, nunca lo veré”, dijo. “No hay la atención que les daría a los investigadores la oportunidad de conocerlo”.
Ninguna plataforma de redes sociales es completamente inmune a las campañas de influencia, pero los investigadores dicen que el aumento en X es notablemente mayor. Según el director ejecutivo de DFRLab, Andy Carvin, gran parte del cambio se puede atribuir a decisiones específicas que tomó la plataforma bajo el liderazgo de Musk, en particular despidiendo al 80% del equipo de confianza y seguridad de la plataforma“Si miras a X alrededor de 2024 y lo comparas con dónde estaba durante las elecciones estadounidenses de 2020, el equipo de confianza y seguridad que alguna vez estuvo allí ya no está”, dijo Carvin. Resto del mundo.
Otro cambio fue la reconstrucción del sistema de verificación de X, inicialmente pensado para destacar las cuentas verificadas y notables con una insignia de “marca azul”. Musk renovó el sistema, haciendo que las insignias Disponible para cualquiera que pague una tarifa de suscripción — afirmando que la necesidad de pagar una tarifa servía como verificación de que el usuario era un ser humano, no un robot. En cambio, la fácil disponibilidad de la insignia ha hecho que el estado verificado en la plataforma sea mucho más accesible para las campañas coordinadas.
El resultado ha sido una avalancha de nuevas campañas dirigidas a las elecciones. A partir de mayoInvestigadores del grupo de derechos humanos Global Witness monitorearon los hashtags electorales previos a las elecciones del Reino Unido del 4 de julio. Más de 610.000 de las publicaciones eran de un grupo de “cuentas tipo bot” que promovían teorías conspirativas, xenofobia y otros temas divisivos.
Al igual que los investigadores de Clemson, Global Witness informó a X de sus hallazgos, pero solo recibió una respuesta automática. La mayoría de las cuentas siguen activas en la plataforma, donde han pasado a difundir información errónea sobre las elecciones estadounidenses o las protestas contra los inmigrantes en Irlanda.
“Es sorprendente lo fácil que ha sido encontrar cuentas que parecen ser bots que difunden la división en torno a las elecciones del Reino Unido y luego ver cómo se lanzan directamente a las discusiones políticas en Estados Unidos”, dijo Ellen Judson, investigadora principal de amenazas digitales del grupo. Resto del mundo.
Cuando Musk decidió adquirir X, hizo hincapié en los efectos nefastos de las cuentas bot y se comprometió a eliminarlas como uno de sus primeros actos como propietario. Parecía estar cumpliendo esa promesa. En abril cuando anunció una “purga del sistema de bots y trolls”. (Más tarde ese díaLa cuenta de seguridad oficial de la plataforma describió la purga como “una iniciativa significativa y proactiva para eliminar las cuentas que violan nuestras Reglas contra la manipulación de la plataforma y el spam”). Pero los frutos de esos esfuerzos han tardado en madurar, y tanto las cuentas de spam como las cuentas falsas siguen siendo comunes en la plataforma.
Cuando los investigadores han logrado eliminar redes de bots, ha sido en gran medida el resultado de la fuerza legal. En julio, el Departamento de Justicia de los EE. UU. tomó medidas contra 968 cuentas X Supuestamente forma parte de una campaña de desinformación rusaLa plataforma suspendió voluntariamente las cuentas, pero sólo después de una búsqueda ordenada por el tribunal y más de un mes de presentaciones y procedimientos.
Renee DiResta, exgerente de investigación del Observatorio de Internet de Stanford, dijo: Resto del mundo Muchos de los mecanismos informales para desmantelar campañas de influencia están ahora cerrados.
“En el pasado, los equipos de integridad de Twitter interactuaban con personas externas a la empresa y existían formas más proactivas de realizar investigaciones y responder”, dijo DiResta. “No creo que la plataforma tenga mucho interés en interactuar de esa manera ahora”.
Los investigadores también se enfrentan a obstáculos cada vez mayores para encontrar operaciones de influencia en primer lugar. La forma más fácil de acceder a las publicaciones X a gran escala es a través de la API de la plataforma, lo que la hace vital para investigadores y académicos. Pero si bien el acceso a la API era Una vez disponible de forma gratuita para académicos y grupos de investigaciónahora se mide de acuerdo a niveles de acceso que puede costar hasta 42.000 dólares al mes.
Bajo el mando de Musk, la compañía también ha demandado a grupos de investigación por informar sobre actividades que reflejan una mala imagen de la plataforma, iniciando demandas civiles contra ellos. Centro para la lucha contra el odio digital y Los medios de comunicación importanEl primer caso fue desestimado, pero el segundo está programado para juicio en abril de 2025. Las demandas han tenido un efecto paralizante en la comunidad en general, haciendo que muchos grupos se muestren reacios a realizar investigaciones en la plataforma.
Pero, si bien hay menos interés en rastrear las operaciones, no hay indicios de que las operaciones en sí mismas se hayan desacelerado, un hecho con implicancias escalofriantes para las elecciones restantes de 2024. Decenas de elecciones provocarán docenas de disputas nacionales diferentes, y dondequiera que las plataformas no puedan controlar la actividad inauténtica, las operaciones de influencia se aprovecharán.
“Siempre ha habido intentos de interferir en la política de sus rivales geopolíticos”, dijo DiResta. “Hemos visto esto en todos los ecosistemas mediáticos anteriores desde hace siglos. Ahora se hace en las redes sociales porque la gente está en ellas. Así que, por supuesto, seguirán haciéndolo. ¿Y por qué no lo harían? No hay ningún inconveniente”.