Elon Musk republicó un deepfake de Kamala Harris, lo que podría violar la política X

El viernes por la noche, Elon Musk volvió a publicar un Video deepfake de la vicepresidenta Kamala Harris en X —una medida que podría violar la política de su propia plataforma sobre medios sintéticos y manipulados, informó The New York Times.

El video fue publicado originalmente por el usuario @MrReaganUSA, quien señaló que el clip era una “parodia” de El primer anuncio de campaña de Harris desde que se convirtió en el candidato virtual del Partido Demócrata para las elecciones presidenciales de 2024.

El clip parece haber sido alterado digitalmente para agregar una nueva voz en off que suena como Harris.

En el video, la voz en off editada dice: “Me seleccionaron porque soy la contratación más diversa. Soy mujer y persona de color, así que si criticas algo de lo que digo, eres sexista y racista”.

La voz en off engañosa también llama a Biden senil y dice que Harris y Biden son marionetas del “estado profundo”.

En su publicación del clip, que ha sido visto más de 117 millones de veces, Musk no mencionó que el video había sido editado y solo escribió: “Esto es increíble 😂”.

Y eso puede entrar en conflicto con X. Política sobre medios sintéticos y manipuladosque establece: “No puedes compartir contenido multimedia sintético, manipulado o fuera de contexto que pueda engañar o confundir a las personas y provocar daños (“comunicación multimedia engañosa”)”.

X dice que para que la empresa tome medidas y elimine o etiquete una publicación que viole esa política, debe “incluir medios que estén alterados de manera significativa y engañosa”, “compartidos de manera engañosa o con un contexto falso” o que puedan causar “confusión generalizada sobre cuestiones públicas”.

La compañía dice que considerará factores que incluyen “si hay alguna información visual o auditiva (como nuevos fotogramas de video, audio doblado o subtítulos modificados) que se haya agregado, editado o eliminado y que cambie fundamentalmente la comprensión, el significado o el contexto de los medios”.

El auge de los deepfakes

Los deepfakes utilizan inteligencia artificial reemplazar la imagen de una persona con la de otra en un video o audio.

Los deepfakes de audio son relativamente fáciles de crear, pero son difíciles de detectar. Los estudios han encontrado.

Numerosos políticos ya han sido víctimas de esta tecnología en el pasado, lo que pone de relieve su potencial para causar estragos en épocas electorales.

En un clip que circuló en las redes sociales el año pasado, Hillary Clinton pareció dar un apoyo sorpresa al gobernador de Florida, Ron DeSantis. Sin embargo, se reveló que el clip había sido generado por inteligencia artificial. Reuters reportado.

Biden también fue víctima de una falsificación profunda luego de su anuncio de que abandonaba la carrera electoral presidencial de 2024.

Un video en las redes sociales parecía mostrar al presidente atacando a sus críticos y maldiciéndolos. Pero, una vez más, las imágenes eran una falsificación profunda, según el sitio web. Agencia de noticias AFP.



Fuente