OpenAI presenta un modo de voz avanzado y no, no sonará como ScarJo

OpenAI ha comenzado a implementar su función avanzada de modo de voz. A partir de hoy, un pequeño número de usuarios de pago de ChatGPT podrán tener una conversación cara a cara con el chatbot de IA. Todos los miembros de ChatGPT Plus deberían recibir acceso al conjunto de herramientas ampliado para el otoño de este año.

En un anuncio En X, la compañía dijo que esta versión avanzada de su Modo Voz “ofrece conversaciones más naturales y en tiempo real, te permite interrumpir en cualquier momento y detecta y responde a tus emociones”.

Soporte para conversaciones de voz Llegó el pasado mes de septiembre a ChatGPT y la versión más avanzada tuvo una demostración pública en mayo. ChatGPT-4o utiliza un único modelo multimodal para las capacidades de voz en lugar de los tres modelos separados utilizados por su solución de audio anterior, lo que reduce la latencia en las conversaciones con el chatbot.

OpenAI recibió muchas críticas en la demostración de mayo por presentar una opción de voz que sonaba increíblemente como Scarlett Johansson, cuya carrera actoral incluyó prestar su voz al personaje de IA Samantha en la película de Spike Jonze. SuLa fecha de lanzamiento del modo de voz avanzado fue demorado Poco después de la reacción negativa, la compañía insistió en que el actor de doblaje no estaba imitando la actuación de Johansson, pero la voz que sonaba similar Fue sacado desde entonces.



Fuente