ChatGPT se vuelve más comunicativo con el 'modo de voz avanzado'


Nueva York
CNN

IA abierta usuarios atónitos cuando demostró un modo de voz actualizado para la versión más avanzada de ChatGPT a principios de este año.

Lejos del tipo de voz robótica que la gente ha llegado a asociar con asistentes digitales como Alexa o Siri, la Modo de voz avanzado de ChatGPT Suena increíblemente realista. Responde en tiempo real, puede adaptarse a las interrupciones y puede emitir ruidos de risa. cuando un usuario hace una broma y puede juzgar el estado emocional de un orador según su tono de voz. (Durante la demostración inicial, también sonaba sospechosamente parecido Scarlett Johansson).

A partir del martes, el modo de voz avanzado, que funciona con la versión más potente del chatbot, ChatGPT-4o — comenzará a implementarse para los usuarios pagos. El modo de voz avanzado comenzará a implementarse para un pequeño grupo de suscriptores del modo “Plus” de la aplicación, con el objetivo de que esté disponible para todos los usuarios Plus en el otoño.

ChatGPT tiene un sistema menos sofisticado modo voz Ya. Pero el lanzamiento de un modelo más El modo de voz avanzado podría marcar un punto de inflexión para OpenAI, transformando lo que ya era un chatbot de IA importante en algo más parecido a un asistente personal virtual con el que los usuarios pueden mantener conversaciones habladas naturales de la misma manera que lo harían con un amigo. La facilidad de conversar con el modo de voz avanzado de ChatGPT podría alentar a los usuarios a interactuar con la herramienta con más frecuencia y plantear un desafío a los asistentes virtuales tradicionales como Apple y Amazon.

Pero la introducción de un modo de voz más avanzado para ChatGPT también trae consigo grandes preguntas: ¿La herramienta entenderá de manera confiable lo que los usuarios están tratando de decir, incluso si tienen diferencias en el habla¿Y los usuarios estarán más inclinados a confiar ciegamente en un asistente de IA que parezca humano, incluso cuando… hace las cosas mal?

OpenAI dijo inicialmente que había planeado comenzar la implementación del modo de voz avanzado en junio, pero dicho Se necesitaba “un mes más para alcanzar nuestro objetivo de lanzamiento” para probar la seguridad de la herramienta y garantizar que pueda ser utilizada por millones de personas manteniendo al mismo tiempo respuestas en tiempo real.

La compañía dijo que en los últimos meses ha probado las capacidades de voz del modelo de IA con más de 100 evaluadores que buscan identificar posibles debilidades, “quienes en conjunto hablan un total de 45 idiomas diferentes y representan 29 geografías diferentes”, según un comunicado del martes.

Entre sus medidas de seguridad, la compañía dijo que el modo de voz no podrá utilizar más voces que las cuatro opciones preestablecidas que creó en colaboración con actores de doblaje (para evitar la suplantación de identidad) y también bloqueará ciertas solicitudes que tengan como objetivo generar música u otro audio con derechos de autor. OpenAI dice que la herramienta también tendrá las mismas protecciones que el modo de texto de ChatGPT para evitar que genere contenido ilegal o “dañino”.

El modo de voz avanzado también tendrá una diferencia importante con respecto a la demostración que mostró OpenAI en mayo: los usuarios ya no podrán acceder a la voz que muchos (incluida la propia actriz) creían que sonaba como la de Johansson. Si bien OpenAI ha mantenido que la voz nunca tuvo la intención de sonar como la de Johansson y que fue creada con la ayuda de un actor diferente, uso pausado de la voz “por respeto” luego de que el actor se quejara.

El lanzamiento del modo de voz avanzado de ChatGPT llega después de OpenAI La semana pasada se anunció Estaba probando un motor de búsqueda que utiliza su tecnología de IA, mientras la empresa continúa aumentando su cartera de herramientas de IA orientadas al consumidor. El motor de búsqueda OpenAI podría eventualmente representar una gran amenaza competitiva para El dominio de Google en las búsquedas online.

Fuente