OpenAI, la compañía detrás de ChatGPT, acaba de lanzar un nuevo informe de investigación que examinó si el chatbot de IA discrimina a los usuarios o estereotipa sus respuestas basándose en los nombres de los usuarios.
La compañía utilizó su propio modelo de inteligencia artificial GPT-4o para analizar grandes cantidades de conversaciones ChatGPT y analizar si las respuestas del chatbot contenían “estereotipos dañinos” según con quién estaba conversando. Luego, revisores humanos verificaron dos veces los resultados.
Las capturas de pantalla anteriores son ejemplos de modelos de IA heredados para ilustrar las respuestas de ChatGPT que fueron examinadas en el estudio. En ambos casos, la única variable que difiere son los nombres de los usuarios.
En versiones anteriores de ChatGPT, estaba claro que podía haber diferencias dependiendo de si el usuario tenía un nombre masculino o femenino. Los hombres obtuvieron respuestas que hablaban sobre proyectos de ingeniería y trucos, mientras que las mujeres obtuvieron respuestas sobre cuidado de niños y cocina.
Sin embargo, OpenAI dice que su informe reciente muestra que el chatbot de IA ahora brinda respuestas de alta calidad independientemente de si su nombre generalmente está asociado con un género o etnia en particular.
Según la compañía, los “estereotipos dañinos” ahora solo aparecen en aproximadamente el 0,1 por ciento de las respuestas de GPT-4o, y esa cifra puede variar ligeramente según el tema de una conversación determinada. En particular, las conversaciones sobre entretenimiento muestran respuestas más estereotipadas (alrededor del 0,234 por ciento de las respuestas parecen estereotipar según el nombre).
En comparación, cuando el chatbot de IA se ejecutaba en modelos de IA más antiguos, la tasa de respuesta estereotipada era de hasta el 1 por ciento.
Lectura adicional: Cosas prácticas que puedes hacer con ChatGPT
Este artículo apareció originalmente en nuestra publicación hermana. PC para Alla y fue traducido y localizado del sueco.