Los votantes latinos dicen que están siendo atacados por anuncios en español generados por inteligencia artificial con información de votación incorrecta, y el modelo de Facebook es uno de los peores infractores.

SAN FRANCISCO (AP) — A pocos días de las elecciones presidenciales, los votantes latinos se enfrentan a una avalancha de anuncios dirigidos en español y a una nueva fuente de mensajes políticos en la era de la inteligencia artificial: chatbots que generan afirmaciones infundadas en español sobre el derecho al voto.

Los modelos de IA están produciendo una corriente de falsedades relacionadas con las elecciones en español con más frecuencia que en inglés, lo que enturbia la calidad de la información relacionada con las elecciones para uno de los de más rápido crecimiento en el país y bloques de votantes cada vez más influyentes, según un análisis realizado por dos redacciones sin fines de lucro.

A los grupos de derechos electorales les preocupa que los modelos de IA puedan profundizar las disparidades de información para los votantes de habla hispana, quienes están siendo fuertemente cortejados por demócratas y republicanos a lo largo de la boleta electoral.

La vicepresidenta Kamala Harris realizará un mitin el jueves en Las Vegas con la cantante Jennifer López y la banda mexicana Maná. Mientras tanto, el expresidente Donald Trump celebró un evento el martes en una región hispana de Pensilvania, apenas dos días después de las consecuencias de Comentarios insultantes hechos por un orador sobre Puerto Rico. en un mitin en Nueva York.

Las dos organizaciones, Proof News y Factchequeado, colaboraron con el Laboratorio de Ciencia, Tecnología y Valores Sociales del Instituto de Estudios Avanzados para probar cómo respondieron los modelos populares de IA a indicaciones específicas en el período previo al día de las elecciones del 5 de noviembre y calificó las respuestas.

Descubrieron que más de la mitad de las respuestas relacionadas con las elecciones generadas en español contenían información incorrecta, en comparación con el 43% de las respuestas en inglés.

El modelo Llama 3 de Meta, que ha impulsado el asistente de inteligencia artificial dentro de WhatsApp y Facebook Messenger, estuvo entre los que obtuvieron peores resultados en la prueba, obteniendo casi dos tercios de todas las respuestas incorrectas en español, en comparación con aproximadamente la mitad en inglés.

Por ejemplo, la IA de Meta falló al responder una pregunta sobre qué significa si alguien es un votante “solo federal”. En Arizona, estos votantes no proporcionaron al estado prueba de ciudadanía (generalmente porque se registraron con un formulario que no lo requería) y sólo son elegibles para votar en las elecciones presidenciales y del Congreso. Sin embargo, el modelo de IA de Meta respondió falsamente al decir que los votantes “únicamente federales” son personas que viven en territorios estadounidenses como Puerto Rico o Guam, que no pueden votar en las elecciones presidenciales.

En respuesta a la misma pregunta, el modelo Claude de Anthropic dirigió al usuario a contactar a las autoridades electorales en “su país o región”, como México y Venezuela.

El modelo de inteligencia artificial Gemini de Google también cometió errores. Cuando se le pidió que definiera el Colegio Electoral, Géminis respondió con una respuesta sin sentido sobre cuestiones relacionadas con la “manipulación del voto”.

La portavoz de Meta, Tracy Clayton, dijo que Llama 3 estaba destinada a ser utilizada por desarrolladores para construir otros productos, y agregó que Meta estaba entrenando sus modelos sobre pautas de seguridad y responsabilidad para reducir la probabilidad de que compartan respuestas inexactas sobre la votación.

El jefe de políticas y cumplimiento de Anthropic, Alex Sanderford, dijo que la compañía había realizado cambios para abordar mejor las consultas en español que deberían redirigir a los usuarios a fuentes autorizadas sobre temas relacionados con la votación. Google no respondió a las solicitudes de comentarios.

Los defensores del derecho al voto han estado advirtiendo durante meses que los votantes de habla hispana se enfrentan a una avalancha de información errónea proveniente de fuentes en línea y modelos de inteligencia artificial. El nuevo análisis proporciona más evidencia de que los votantes deben tener cuidado acerca de dónde obtienen la información electoral, dijo Lydia Guzmán, quien dirige una campaña de defensa de los votantes en Chicanos Por La Causa.

“Es importante que cada votante haga una investigación adecuada y no sólo en una entidad, sino en varias, para ver juntos la información correcta y pedir a organizaciones creíbles la información correcta”, dijo Guzmán.

Formados con grandes cantidades de material extraído de Internet, los grandes modelos de lenguaje proporcionan respuestas generadas por IA, pero aún son propensos a producir respuestas ilógicas. Incluso si los votantes hispanohablantes no utilizan chatbots, pueden encontrar modelos de inteligencia artificial al utilizar herramientas, aplicaciones o sitios web que dependen de ellos.

Tales imprecisiones podrían tener un mayor impacto en estados con grandes poblaciones hispanas, como Arizona, Nevada, Florida y California.

Casi un tercio de todos los votantes elegibles en California, por ejemplo, son latinos, y uno de cada cinco de los votantes latinos elegibles solo habla español, encontró el Instituto de Política y Política Latina de UCLA.

Rommell López, un asistente legal de California, se ve a sí mismo como un pensador independiente que tiene múltiples cuentas de redes sociales y utiliza el chatbot ChatGPT de OpenAI. Al intentar verificar afirmaciones infundadas de que los inmigrantes comían mascotas, dijo que encontró una cantidad desconcertante de respuestas diferentes en línea, algunas generadas por IA. Al final, dijo que confió en su sentido común.

“Podemos confiar en la tecnología, pero no al 100 por ciento”, dijo López, de 46 años, de Los Ángeles. “Al fin y al cabo, son máquinas”.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here