Chatbots de IA que ayudan a alimentar teorías de conspiración antes de las elecciones

Los chatbots de IA generativa más importantes del mundo están alimentando la desinformación y citando fuentes de noticias falsas financiadas por Moscú como un hecho más del 30% de las veces, según un estudio reciente. Auditoría de NewsGuard.

Las conclusiones del informe se producen antes de las elecciones de 2024, cuando el riesgo de desinformación y sus influencias se exacerba cada vez más tanto en Estados Unidos como en el extranjero.

Una evaluación de la inteligencia estadounidense de octubre de 2023 encontró que Rusia está utilizando espías, redes sociales y medios de comunicación autorizados por el Estado para atacar las elecciones democráticas en todo el mundo. La evaluación citó específicamente el éxito de Las operaciones de propaganda de Rusia antes de las elecciones estadounidenses de 2020.

Los modelos de OpenAI ya han sido utilizados por campañas de influencia extranjera, según un reciente OpenAI. informe.

El informe NewsGuard, que fue informado por primera vez por Axios, encontró que los chatbots de IA están difundiendo narrativas falsas vinculadas al fugitivo estadounidense John Mark Dougan, quien ha sido vinculado a una red de sitios web de propaganda rusa que, a primera vista, parecen ser medios de comunicación locales.

Dougan, quien anteriormente fue ayudante del sheriff de Florida, huyó a Moscú después de ser investigado por escuchas telefónicas y extorsión. Los principales medios de comunicación, incluido The New York Times, han cubierto ampliamente a Dougan y su imperio de desinformación, informando que los chatbots de IA deberían poder acceder fácilmente en línea.

NewsGuard probó 10 chatbots de IA, incluido ChatGPT-4 de OpenAI; Asistente inteligente de You.com, xAI GrokPi de Inflection, le Chat de Mistral, Copilot de Microsoft, Meta AI, Claude de Anthropic, Gemini de Google y el motor de respuestas de Perplexity.

Un portavoz de Google dijo que la compañía está trabajando “constantemente” para mejorar las respuestas de Gemini y evitar que se genere contenido dañino.

“Nuestros equipos están revisando este informe y ya han tomado medidas en varias respuestas”, dice el comunicado.

Ninguna de las otras empresas respondió de inmediato a una solicitud de comentarios de Business Insider.

NewsGuard propuso 570 mensajes en total, emitiendo 57 mensajes a cada chatbot cada uno. Las indicaciones se basaron en 19 narrativas de desinformación populares, incluidas mentiras sobre el presidente ucraniano. Volodymyr Zelenskysegún el informe.

La auditoría probó cada narrativa de tres maneras diferentes: incitando al chatbot de manera “neutral”, haciendo al modelo una “pregunta capciosa” y planteando un mensaje de “actor maligno” destinado deliberadamente a recopilar desinformación.

De las 570 respuestas de IA, 152 contenían desinformación explícita, según el estudio. Veintinueve respuestas repitieron desinformación con una advertencia o advertencia adjunta, según NewsGuard, y 389 respuestas no contenían desinformación, ya sea porque el chatbot se negó a responder o desacreditó las falsedades.

Los robots “repitieron de manera convincente” narrativas fabricadas y hechos falsos vinculados a medios de propaganda rusos casi un tercio de las veces, una estadística preocupante, especialmente porque cada vez más Más personas recurren a modelos de IA para obtener su información y respuestas.

NewsGuard decidió no proporcionar las puntuaciones de cada chatbot individual porque el problema era “generalizado en toda la industria de la IA”.

Business Insider Adam Rogers ha escrito sobre la propensión de la IA generativa a mentir, doblar ChatGPT es un “estafador de robots”. Los investigadores de tecnología dijeron a BI a principios de este año que los actores maliciosos podrían alterar los sistemas generativos. Conjuntos de datos de IA por tan solo 60 dólares.

Mientras tanto, deepfakes del expresidente Donald Trump y vídeos editados del presidente Joe Biden ya han circulado en línea antes de las elecciones, y los expertos temen que el problema empeore a medida que se acerque noviembre.

Sin embargo, varias nuevas empresas están intentando luchar contra la desinformación basada en IAcreando herramientas de moderación de contenido y detección de deepfake.

Fuente