Poco después de que Joe Biden anunciara que pondría fin a su intento de reelección, empezó a difundirse en Internet información errónea sobre si un nuevo candidato podría ocupar el lugar del presidente.
Las capturas de pantalla que afirmaban que no se pudo agregar un nuevo candidato a las boletas en nueve estados se movieron rápidamente por Twitter, ahora incógnitaacumulando millones de visitas. La oficina del secretario de estado de Minnesota comenzó a recibir solicitudes de verificación de datos de estas publicaciones, que eran completamente erróneas: las fechas límite para las votaciones no habían pasado, lo que le dio a Kamala Harris mucho tiempo para que se agregara su nombre a las boletas.
La fuente de la desinformación: el chatbot de Twitter, Grok. Cuando los usuarios preguntaron a la herramienta de inteligencia artificial si un nuevo candidato aún tenía tiempo para ser incluido en las papeletas, Grok dio la respuesta incorrecta.
Encontrar la fuente y trabajar para corregirla sirvió como un caso de prueba de cómo interactuarán los funcionarios electorales y las empresas de inteligencia artificial durante las elecciones presidenciales de 2024 en Estados Unidos, en medio de temores de que la IA pudiera engañar o distraer a los votantes. Y mostró el papel que Grok, en particular, podría desempeñar en las elecciones, como un chatbot con menos barreras para evitar la generación de más contenido incendiario.
Un grupo de secretarios de Estado y la organización que los representa, la Asociación Nacional de Secretarios de Estado, se pusieron en contacto con Grok y X para denunciar la desinformación. Pero la empresa no trabajó para corregirla de inmediato, sino que dando el equivalente “Creo que es justo decir que a todos nos pareció una respuesta equivocada”, dijo Steve Simon, el secretario de Estado de Minnesota.
Afortunadamente, esta respuesta errónea no tenía demasiado riesgo: no habría impedido que la gente votara, pero los secretarios rápidamente adoptaron una postura firme ante lo que podría suceder a continuación.
“Pensamos: ¿y si la próxima vez que Grok cometa un error, se trata de algo más importante?”, dijo Simon. “¿Y si la próxima vez que la respuesta sea incorrecta, se pregunta si puedo votar, dónde voto, cuál es el horario o si puedo votar en ausencia? Esto nos alarmó”.
Especialmente preocupante fue el hecho de que la propia plataforma de redes sociales estaba difundiendo información falsa, en lugar de que los usuarios difundieran información errónea utilizando la plataforma.
Las secretarias hicieron pública su iniciativa. Cinco de las nueve secretarias del grupo firmaron una carta pública dirigida a la plataforma y a su propietario. Elon MuskLa carta instaba a X a que su chatbot adoptara una posición similar a la de otras herramientas de chatbot, como ChatGPT, y dirigiera a los usuarios que le hacen preguntas a Grok relacionadas con las elecciones a un sitio de información electoral no partidista y confiable, CanIVote.org.
El esfuerzo funcionó. Grok ahora dirige a los usuarios a un sitio web diferente, vote.gov, cuando se les pregunta sobre las elecciones.
“Esperamos mantener abiertas las líneas de comunicación durante esta temporada electoral y estamos listos para responder a cualquier inquietud adicional que puedan tener”, escribió Wifredo Fernández, jefe de asuntos gubernamentales globales de X, a los secretarios, según una copia de la carta obtenida por The Guardian.
Fue una victoria para los secretarios y para frenar la desinformación electoral, y una lección sobre cómo responder cuando las herramientas basadas en inteligencia artificial no son suficientes. Señalar la desinformación de manera temprana y con frecuencia puede ayudar a amplificar el mensaje, darle más credibilidad y forzar una respuesta, dijo Simon.
Aunque se sintió “profundamente decepcionado” por la respuesta inicial de la empresa, Simon dijo: “Quiero felicitar y dar las gracias también, y es lo que se merece. Se trata de una gran empresa, con alcance global, y decidieron hacer lo correcto y responsable, y los felicito por eso. Sólo espero que sigan así. Vamos a seguir haciendo un seguimiento”.
Musk ha descrito a Grok como un chatbot “anti-woke” que da respuestas “picantes” a menudo cargadas de sarcasmo. Musk está “en contra del control centralizado en cualquier grado que sea posible”, dijo Lucas Hansen, cofundador de CivAI, una organización sin fines de lucro que advierte sobre los peligros de la IA. Esta creencia filosófica pone a Grok en desventaja para prevenir la desinformación, al igual que otra característica de la herramienta: Grok trae los tweets más destacados para informar sus respuestas, lo que puede afectar su precisión, dijo Hansen.
Grok requiere una suscripción paga, pero tiene potencial de uso generalizado ya que está integrado en una plataforma de redes sociales, dijo Hansen. Y si bien puede dar respuestas incorrectas en el chat, las imágenes que crea también pueden inflamar aún más las divisiones partidistas.
Las imágenes pueden ser extravagante: un Mickey Mouse nazi, Trump volando un avión contra el World Trade Center, Harris con un uniforme comunista. Un estudio del Centro para el Conteo del Odio Digital afirma que Grok puede crear imágenes “convincentes” que podrían engañar a la gente, citando imágenes que incitó al robot a crear de Harris consumiendo drogas y Trump enfermo en la cama, según The Independent. reportadoEl medio de comunicación Al Jazeera escribió en una investigación reciente que fue capaz de crear “imágenes realistas” de Harris con un cuchillo en una tienda de comestibles y de Trump “estrechando la mano de nacionalistas blancos en el césped de la Casa Blanca”.
“Ahora cualquier persona al azar puede crear algo que sea sustancialmente más provocativo de lo que podía hacer antes”, dijo Hansen.