Los expertos en inteligencia artificial creen que los modelos de lenguaje grande (LLM) podrían servir como mediadores en ciertos escenarios donde no se pueden llegar a acuerdos entre individuos.
Un estudio reciente realizado por investigadores de Google DeepMind buscó explorar el potencial de los LLM para usarse en este sentido, particularmente en términos de resolver disputas incendiarias en medio del clima político polémico a nivel mundial.
“A menudo es difícil llegar a acuerdos mediante un libre intercambio de opiniones”, afirmó. Los autores del estudio señalaron. “La deliberación colectiva puede ser lenta, difícil de escalar y prestar una atención desigual a las diferentes voces”.
Ganándose al grupo
Como parte del proyecto, el equipo de DeepMind capacitó a una serie de LLM denominados 'Habermas Machines' (HM) para que actuaran como mediadores. Estos modelos fueron entrenados específicamente para identificar creencias comunes y superpuestas entre individuos en ambos extremos del espectro político.
Los temas cubiertos por el LLM incluyeron cuestiones divisivas como la inmigración, el Brexit, los salarios mínimos, el cuidado infantil universal y el cambio climático.
“Utilizando las opiniones y críticas personales de los participantes, el mediador de IA genera y refina de forma iterativa declaraciones que expresan puntos en común entre el grupo sobre cuestiones sociales o políticas”, escribieron los autores.
En el proyecto también los voluntarios participaron en el modelo, que se basó en las opiniones y perspectivas de cada individuo sobre ciertos temas políticos.
Luego, el modelo recopiló documentos resumidos sobre las opiniones políticas de los voluntarios, lo que proporcionó más contexto para ayudar a superar las divisiones.
Los resultados fueron muy prometedores, y el estudio reveló que los voluntarios calificaron las declaraciones hechas por el HM mejor que las hechas por declaraciones humanas sobre los mismos temas.
Además, después de que los voluntarios se dividieron en grupos para discutir más a fondo estos temas, los investigadores descubrieron que los participantes estaban menos divididos sobre estos temas después de leer las declaraciones de los HM en comparación con los documentos de los mediadores humanos.
“Las declaraciones de opinión grupal generadas por la Máquina Habermas fueron consistentemente preferidas por los miembros del grupo sobre las escritas por mediadores humanos y recibieron calificaciones más altas de jueces externos por su calidad, claridad, información y equidad percibida”, concluyeron los investigadores.
“La deliberación mediada por IA también redujo la división dentro de los grupos, y las posturas informadas de los participantes convergieron hacia una posición común sobre el tema después de la deliberación; este resultado no se produjo cuando los participantes intercambiaron puntos de vista directamente, sin mediación”.
El estudio señaló que el “apoyo a la posición mayoritaria” sobre ciertos temas aumentó después de deliberaciones apoyadas por AI. Sin embargo, los HM “incorporaron de manera demostrable críticas de las minorías en las declaraciones revisadas”.
Lo que esto sugiere, dijeron los investigadores, es que durante la deliberación mediada por la IA, “las opiniones de los grupos de participantes tendían a moverse en una dirección similar sobre temas controvertidos”.
“Estos cambios no fueron atribuibles a sesgos en la IA, lo que sugiere que el proceso de deliberación realmente ayudó al surgimiento de perspectivas compartidas sobre cuestiones sociales y políticas potencialmente polarizadoras”.
Ya existen ejemplos del mundo real de LLM que se utilizan para resolver disputas, particularmente en relaciones, con algunos usuarios en Reddit habiendo informado utilizando el ChatGPTPor ejemplo.
Un usuario informó que su pareja usó el chatbot “cada vez” tienen algún desacuerdo y que eso estaba generando roces.
“Yo (25) y mi novia (28) hemos estado saliendo durante los últimos 8 meses. Hemos tenido un par de discusiones importantes y algunos desacuerdos menores recientemente”, escribió el usuario. “Cada vez que discutimos, mi novia se va y discute la discusión con ChatGPTincluso haciéndolo a veces en la misma habitación”.
En particular, el usuario descubrió que en estas ocasiones su pareja podía “volver con un argumento bien construido” desglosando todo lo dicho o hecho durante una discusión anterior.
Sin embargo, es este aspecto de la situación el que ha causado una tensión significativa.
“Le expliqué que no me gusta que lo haga, ya que puedo sentirme como si un robot me estuviera emboscando con pensamientos y opiniones”, escribieron. “Es casi imposible para un ser humano recordar cada pequeño detalle y desglosarlo poco a poco, pero la IA no tiene problemas para hacerlo”.
“Siempre que he expresado mi malestar me han dicho que 'ChatGPT dice que eres inseguro' o 'ChatGPT dice que no tienes el ancho de banda emocional para entender lo que estoy diciendo'.”