Los chatbots de IA pueden tener dificultades para alucinar información inventada, pero una nueva investigación ha demostrado que podrían ser útiles para contrarrestar ideas infundadas y alucinatorias en las mentes humanas. Los científicos de MIT Sloan y Cornell University han publicado un papel en Ciencia afirmando que conversar con un chatbot impulsado por un modelo de lenguaje grande (LLM) reduce la creencia en conspiraciones en aproximadamente un 20%.
Para ver cómo un chatbot de IA podría afectar el pensamiento conspirativo, el científico organizó que 2.190 participantes discutieran teorías conspirativas con un chatbot que ejecutaba el modelo GPT-4 Turbo de OpenAI. Se pidió a los participantes que describieran una teoría conspirativa que consideraran creíble, incluidas las razones y las pruebas que creían que la respaldaban. El chatbot, al que se le pidió que fuera persuasivo, proporcionó respuestas adaptadas a estos detalles. Mientras hablaban con el chatbot, este proporcionó contraargumentos personalizados en función de las aportaciones de los participantes. El estudio abordó el problema perenne de las alucinaciones de la IA con un verificador de hechos profesional que evaluó 128 afirmaciones realizadas por el chatbot durante el estudio. Las afirmaciones fueron precisas en un 99,2%, lo que, según los investigadores, se debió a la amplia documentación en línea de las teorías conspirativas representadas en los datos de entrenamiento del modelo.
La idea de recurrir a la IA para desacreditar las teorías conspirativas era que sus profundos depósitos de información y sus enfoques conversacionales adaptables podían llegar a las personas personalizando el enfoque. Según las evaluaciones de seguimiento realizadas diez días y dos meses después de la primera conversación, funcionó. La mayoría de los participantes tenían una creencia reducida en las teorías conspirativas que habían defendido “desde las conspiraciones clásicas que involucraban el asesinato de John F. Kennedy, los extraterrestres y los Illuminati, hasta las relacionadas con eventos de actualidad como el COVID-19 y las elecciones presidenciales estadounidenses de 2020”, dijeron los investigadores. encontró.
Diversión con Factbot
Los resultados fueron una verdadera sorpresa para los investigadores, que habían planteado la hipótesis de que las personas son en gran medida poco receptivas a los argumentos basados en evidencias que desacreditan las teorías de la conspiración. En cambio, demuestra que un chatbot de IA bien diseñado puede presentar contraargumentos de manera efectiva, lo que lleva a un cambio mensurable en las creencias. Llegaron a la conclusión de que las herramientas de IA podrían ser una bendición para combatir la desinformación, aunque es necesario tener cuidado debido a que también podrían engañar aún más a las personas con información errónea.
El estudio respalda el valor de proyectos con objetivos similares. Por ejemplo, el sitio de verificación de datos Snopes lanzó recientemente una herramienta de inteligencia artificial llamada Robot de datos para ayudar a las personas a determinar si algo que han escuchado es real o no. FactBot utiliza el archivo de Snopes y la inteligencia artificial generativa para responder preguntas sin tener que revisar artículos utilizando métodos de búsqueda más tradicionales. El Washington Post creado Respuestas climáticas Para aclarar la confusión sobre las cuestiones del cambio climático, confiando en su periodismo climático para responder preguntas directamente sobre el tema.
“Muchas personas que creen firmemente en creencias conspirativas aparentemente incompatibles con los hechos pueden cambiar de opinión cuando se les presentan pruebas convincentes. Desde una perspectiva teórica, esto pinta un cuadro sorprendentemente optimista del razonamiento humano: las madrigueras conspirativas pueden tener una salida”, escribieron los investigadores. “En la práctica, al demostrar el poder persuasivo de los LLM, nuestros hallazgos enfatizan tanto los posibles impactos positivos de la IA generativa cuando se implementa de manera responsable como la importancia apremiante de minimizar las oportunidades de que esta tecnología se use de manera irresponsable”.