Los chats con robots de inteligencia artificial reducen las creencias sobre teorías conspirativas

Manténgase informado con actualizaciones gratuitas

Los teóricos de la conspiración que debatieron con un chatbot de inteligencia artificial se volvieron más dispuestos a admitir dudas sobre sus creencias, según una investigación que ofrece información sobre cómo lidiar con la desinformación.

Los científicos descubrieron que la mayor apertura mental se extendió incluso a los devotos más obstinados y persistió mucho después de terminar el diálogo con la máquina.

La investigación contradice la idea de que es prácticamente imposible cambiar la opinión de individuos que se han sumergido en madrigueras de ideas populares pero sin evidencia.

Los hallazgos son sorprendentes porque sugieren un posible papel positivo para AI modelos para contrarrestar la desinformación, a pesar de sus propias vulnerabilidades a las “alucinaciones” que a veces les llevan a difundir falsedades.

El trabajo “pinta un cuadro más brillante de la mente humana de lo que muchos podrían haber esperado” y muestra que “el razonamiento y la evidencia no están muertos”, dijo David Rand, uno de los investigadores del trabajo. publicado en Science el jueves.

“Incluso muchos teóricos de la conspiración responderán a hechos y evidencias precisas; solo hay que abordar directamente sus creencias y preocupaciones específicas”, dijo Rand, profesor de la Escuela de Administración Sloan del Instituto Tecnológico de Massachusetts.

“Si bien existen preocupaciones legítimas generalizadas sobre el poder de la IA generativa para difundir desinformación, nuestro documento muestra cómo también puede ser parte de la solución al ser un educador altamente eficaz”, agregó.

Los investigadores examinaron si los modelos de lenguaje grandes de IA, como IA abiertaEl GPT-4 Turbo podría utilizar su capacidad de acceder y resumir información para abordar creencias conspirativas persistentes, como la de que los ataques terroristas del 11 de septiembre de 2001 fueron una farsa, la de que las elecciones presidenciales estadounidenses de 2020 fueron fraudulentas y la de que la pandemia de Covid-19 fue orquestada.

Casi 2.200 participantes compartieron ideas conspirativas con el LLM, que generó evidencia para refutar las afirmaciones. Estos diálogos redujeron la creencia autoevaluada de la persona en su teoría elegida en un promedio del 20 por ciento durante al menos dos meses después de hablar con el bot, dijeron los investigadores.

Un verificador profesional evaluó la precisión de una muestra de los resultados del propio modelo. La verificación determinó que el 99,2 por ciento de las afirmaciones del LLM eran verdaderas y el 0,8 por ciento, engañosas, dijeron los científicos.

El enfoque personalizado de preguntas y respuestas del estudio es una respuesta a la aparente ineficacia de muchas estrategias existentes para desacreditar la desinformación.

Otra complicación de los esfuerzos generalizados para atacar el pensamiento conspirativo es que las conspiraciones reales ocurren, mientras que en otros casos las narrativas escépticas pueden estar muy embellecidas pero basadas en un núcleo de verdad.

Una teoría sobre por qué la interacción del chatbot parece funcionar bien es que tiene acceso instantáneo a cualquier tipo de información, de una manera que un encuestado humano no puede.

La máquina también trató a sus interlocutores humanos en términos educados y empáticos, en contraste con el desprecio con el que a veces se desprestigia a los teóricos de la conspiración en la vida real.

Sin embargo, otras investigaciones sugirieron que el modo de dirigirse a la máquina probablemente no era un factor importante, dijo Rand. Él y sus colegas habían realizado un experimento de seguimiento en el que se le pidió a la IA que hiciera una corrección factual “sin las sutilezas” y funcionó igual de bien, agregó.

El “tamaño, la solidez y la persistencia de la reducción de las creencias conspirativas” del estudio sugirieron que “una intervención escalable para recalibrar las creencias erróneas podría estar al alcance”, según un Comentario acompañante También publicado en Science.

Pero las posibles limitaciones incluyeron dificultades para responder a nuevas teorías de conspiración y para persuadir a personas con poca confianza en las instituciones científicas para que interactuaran con el bot, dijeron Bence Bago de la Universidad de Tilburg en los Países Bajos y Jean-François Bonnefon de la Escuela de Economía de Toulouse, quienes escribieron juntos el artículo secundario.

“La técnica de diálogo de IA es tan poderosa porque automatiza la generación de contrapruebas específicas y exhaustivas para los intrincados argumentos de los creyentes en teorías conspirativas y, por lo tanto, podría implementarse para brindar información correctiva precisa a gran escala”, dijeron Bago y Bonnefon, que no participaron en la investigación.

“Una limitación importante para hacer realidad este potencial radica en la implementación”, añadieron. “Es decir, cómo lograr que personas con creencias conspirativas arraigadas interactúen con un programa de inteligencia artificial debidamente entrenado para empezar”.

Fuente