OpenAI afirma que la 'voz' de GPT-4o podría generar apego emocional a los usuarios

Como OpenAI lanza la versión avanzada del modo voz por su último modelo, GPT-4oLa compañía dice que la función podría aumentar el riesgo de que algunos usuarios vean los modelos de inteligencia artificial como “similares a los humanos”.

La “voz humana de alta fidelidad” de GPT-4o podría resolver el problema. alucinacioneso la tendencia de un modelo a inventar información falsa o sin sentido, peor aún, dijo OpenAI en un Informe sobre la seguridad del modelo de IAlo que podría afectar la confianza humana.

Durante las primeras pruebas de trabajo en equipo y de usuarios internos, OpenAI afirmó haber observado que los usuarios hablaban con el modelo con un “lenguaje que podría indicar que estaban formando conexiones con el modelo”, como cuando un usuario le dijo al modelo: “Este es nuestro último día juntos”.

“Si bien estos casos parecen benignos, indican la necesidad de seguir investigando cómo estos efectos podrían manifestarse durante períodos más prolongados”, dijo OpenAI, y agregó que continúa investigando el riesgo con usuarios más diversos y estudios académicos e internos.

Si bien la creación de “relaciones sociales” con modelos de IA podría ayudar a las personas solitarias, también podría tener un impacto en las relaciones saludables al reducir la necesidad de interacción entre personas, dijo OpenAI. Depender de los modelos de IA para una interacción “similar a la humana” también podría “influir en las normas sociales”, dijo la compañía, como interrumpir conversaciones en cualquier momento, algo que el modelo permite hacer a los usuarios, pero que sería atípico en una conversación con una persona real.

Las capacidades de voz de GPT-4o, que debutó en mayo, se probaron con Más de 100 miembros externos del equipo rojo en 45 idiomasy el modelo de IA fue entrenado para hablar solo con cuatro voces preestablecidas para proteger la privacidad de los actores de voz. GPT-4o está diseñado para bloquear salidas que utilicen voces que no estén preestablecidas y, por lo tanto, no se pueden usar para hacerse pasar por personas y figuras públicas. OpenAI también agregó barandillas para bloquear solicitudes de audio con derechos de autor, incluida la música, y de contenido erótico, violento y dañino.

OpenAI está abordando un riesgo que fue el foco del director ejecutivo La película favorita de Sam Altman, Suque muestra a un hombre que desarrolla sentimientos por una asistente virtual con la voz de la actriz Scarlett Johansson. En mayo, los usuarios dijeron que una de las voces de GPT-4o, Sky, sonaba similar a la de Johansson, lo que llevó a la compañía a pausa la vozdiciendo que no tenía la intención de imitar a la actriz. Johansson dijo en una carta Ella estaba “conmocionada, enojada e incrédula” de que la compañía usara una voz que sonaba “inquietantemente similar” a la suya después de que ella se negó a trabajar con Altman.

Fuente