En las elecciones de la India, los deepfakes son más trolling que desinformación

Al llegar 2024, había muchas razones para preocuparse por cómo las plataformas manejarían las elecciones indias. Son las elecciones más grandes del mundo, con casi mil millones de personas elegibles para votar en una nación cada vez más polarizada. El partido del primer ministro Narendra Modi es visto como el gran favorito en medio de una campaña en la que ha agitado a su base con retórica genuinamente violenta contra los musulmanes. No fue difícil ver el peligro de que esa retórica se extendiera en línea. Combine eso con la disponibilidad generalizada de herramientas de manipulación de audio y video impulsadas por inteligencia artificial y tendrá los ingredientes para una situación en la que la desinformación podría prosperar.

Lo que realmente hemos visto ha sido un poco diferente. Durante poco más de un mes, he estado trabajando en un Rastreador de elecciones con IA con nuestra directora de artículos, Victoria Turk, recopilando más de tres docenas de usos verificados de la IA en las elecciones de todo el mundo en 2024. Pero si bien podemos verificar que la IA se utilizó en varios casos, es más difícil clasificar los casos como información errónea. Hemos visto Políticos muertos resucitan para hacer campaña por sus hijos y actores famosos atrapados en patrocinios falsos, pero generalmente se hace con un guiño y un asentimiento. Con la votación llegando a su fin esta semana, hay mucha parodia y poca malicia real.

Esto no significa restar importancia a la retórica violenta que se utiliza en la campaña de Modi, que ha puesto a los musulmanes en riesgo e incitado a la violencia en el mundo real. En algunos casos, esa retórica se ha superpuesto con herramientas de inteligencia artificial generativa, lo que ha facilitado la difusión de los mensajes y ha aumentado los riesgos para las plataformas cuando no actúan con rapidez para eliminarlos. Pero el daño en esos casos se debe claramente a la retórica de odio en sí misma, no a las herramientas de inteligencia artificial utilizadas para difundirla. Y cuando nos centramos únicamente en el contenido generado por IA, como lo hacemos en el rastreador, lo que vemos es algo significativamente menos peligroso.

Este vídeo de intercambio de caras es un ejemplo perfecto. A grandes rasgos, es un caso clásico de desinformación: poner palabras políticamente dañinas en boca de políticos prominentes que en realidad no las dijeron. En este caso, el vídeo muestra a Rahul Gandhi, líder del principal partido de oposición de la India, criticando a un miembro de su coalición, haciendo que toda la alianza política parezca un desastre. (Una comparación estadounidense podría ser Joe Biden quejándose de Alexandria Ocasio-Cortez).

Pero si bien el vídeo sería políticamente perjudicial si realmente engañara a los votantes, ese no parece ser el punto. El metraje original, no manipulado, proviene de un discurso político destacado que la mayoría de los espectadores indios conocerían, lo cual no es el tipo de cosas que harías si quisieras inventar una falsificación convincente. El efecto está más cerca del trolling que del engaño total, como un Sábado noche en directo boceto o una grotesca caricatura política. Claro, es falso, pero la falsificación es el punto.

Parodias de este tipo están por todo Facebook estos días, y si bien son alarmantes en situaciones de emergencia, es difícil decir cómo las plataformas deberían responder a ellas durante las elecciones. Para bien o para mal, gran parte del discurso democrático consiste en este tipo de insultos y hostigamientos mezquinos. Eso es parte del motivo por el cual las políticas de plataforma en Meta y YouTube Tengan cuidado de prohibir únicamente el contenido “engañoso”, en lugar de prohibir por completo las manipulaciones de la IA. Si los seguidores de Modi quieren vigilarlo sube al escenario en un concierto de Lil Yachty¿por qué no deberían poder hacerlo?

Para ser claros, este no es un ejemplo de moderación de plataforma exitosa. Incluso en los casos en los que el contenido no debería eliminarse, las plataformas deberían etiquetarlo como generado por IA, como recomiendan sus propias políticas. La mayoría de los ejemplos en el rastreador no están etiquetados, a pesar de la importante atención del público y los días de tiempo de espera. Es una señal clara de que las plataformas aún no han descubierto cómo reconocer el contenido generado por IA. La buena noticia, entonces, es que no mantenerla bajo control puede causar menos daño de lo que se temía originalmente.

Fuente