OpenAI pide a los usuarios de ChatGPT-4o que no desarrollen sentimientos hacia él debido a sus interacciones similares a las humanas

ChatGPT-4o es la última versión de la línea de chatbots de OpenAI y, como era de esperar, la empresa tiene algunas dudas sobre cómo interactúan los usuarios con él. Dado que la última versión puede mostrar un comportamiento y respuestas similares a los humanos, a la empresa de inteligencia artificial le preocupa que los usuarios desarrollen sentimientos hacia el chatbot.

ChatGPT-4o ofrece respuestas más rápidas e incluso una nueva función de voz que emula el habla humana, que es precisamente lo que preocupa a OpenAI.

Mientras la startup multimillonaria continúa perfeccionando su producto, no puede evitar notar algunos patrones en los usuarios de ChatGPT-4o. El lanzamiento del nuevo chatbot tenía como objetivo brindar una experiencia similar a hablar con un humano, pero parece que OpenAI subestimó la conexión emocional que se puede crear entre los usuarios y el programa. La empresa destacó sus hallazgos a continuación.

“Durante las primeras pruebas, que incluyeron el trabajo en equipo y las pruebas internas con usuarios, observamos que los usuarios utilizaban un lenguaje que podría indicar que estaban formando conexiones con el modelo. Por ejemplo, esto incluye un lenguaje que expresa vínculos compartidos, como “Este es nuestro último día juntos”. Si bien estos casos parecen benignos, indican la necesidad de seguir investigando cómo estos efectos podrían manifestarse en períodos más prolongados. Poblaciones de usuarios más diversas, con necesidades y deseos más variados del modelo, además de estudios académicos e internos independientes, nos ayudarán a definir de manera más concreta esta área de riesgo.

La socialización similar a la humana con un modelo de IA puede producir externalidades que afecten las interacciones entre humanos. Por ejemplo, los usuarios podrían formar relaciones sociales con la IA, reduciendo su necesidad de interacción humana, lo que podría beneficiar a las personas solitarias, pero posiblemente afecte las relaciones saludables. La interacción prolongada con el modelo podría influir en las normas sociales. Por ejemplo, nuestros modelos son deferentes, lo que permite a los usuarios interrumpir y “tomar el micrófono” en cualquier momento, lo que, si bien es esperable para una IA, sería antinormativo en las interacciones humanas”.

Desarrollar sentimientos por ChatGPT-4o es perjudicial en varios casos. El principal es que antes, los usuarios ignoraban cualquier alucinación, ya que las iteraciones anteriores del chatbot los hacían parecer más un programa de inteligencia artificial que una persona. Ahora, a medida que el programa hace la transición hacia la entrega de una experiencia casi humana, cualquier cosa que diga podría aceptarse sin más preguntas.

Al observar estos patrones, OpenAI ahora monitoreará cómo las personas desarrollan vínculos emocionales con ChatGPT-4o y ajustará sus sistemas en consecuencia. La empresa también debería agregar una advertencia al principio para que los usuarios no se enamoren de él porque, al fin y al cabo, es un programa de inteligencia artificial.

Fuente de la noticia: IA abierta

Comparte esta historia

Facebook

Gorjeo

Fuente