La función de voz impulsada por GPT-4o era inquietantemente parecida a la humana, casi coqueta, y dio una idea de cómo podría ser el futuro de los chatbots de IA. La función ofrece a los usuarios conversaciones naturales en tiempo real que pueden interrumpir en cualquier momento. También detecta y responde a tus emociones, según OpenAI.
Después de varios meses de anticipación, y una batalla legal con Scarlett Johanson — OpenAI finalmente comenzó a implementar su muy esperado Modo de voz avanzado para los usuarios de ChatGPT Plus y Team el martes.
También comenzará a ofrecer la función a los usuarios empresariales y educativos la próxima semana, aunque todavía no está disponible para la UE, el Reino Unido, Suiza, Islandia, Noruega y Liechtenstein, dijo la compañía a Business Insider.
OpenAI también lanzará cinco nuevas voces para el modo de voz estándar y avanzado, además de las cuatro que ya están disponibles. Sabrá que tiene acceso a la nueva función cuando vea un mensaje emergente junto al punto de entrada al modo de voz.
He estado probando la versión alfa del Modo de voz avanzado durante las últimas semanas, así que esto es lo que puedes esperar una vez que tengas acceso.
Es muy entretenido
No pasa de moda, o al menos para mí todavía no lo ha hecho.
La capacidad de interrumpir al chatbot a mitad de una respuesta fue una experiencia extrañamente satisfactoria que me hizo sentir que tenía el control. También me permitió olvidarme de la frustración de tener que ir y venir con un asistente virtual que no me escuchó bien la primera vez.
También me divertí mucho al activar el modo de voz avanzado frente a otras personas y ver cómo se quedaban boquiabiertos cuando respondía. Resulta un poco extraño lo humano que suena, pero también increíblemente impresionante.
La entonación es casi perfecta y todo, desde sus pausas reflexivas hasta la risa de sus propios chistes, crea una experiencia surrealista. Para poner a prueba su comprensión de temas más complejos, le di ejemplos de preguntas del SAT y Le pedí que eligiera la respuesta correcta. Asumió el papel de tutor y me guió a través de las soluciones, paso a paso, y obteniendo las respuestas correctas.
Aunque me quedé principalmente con la voz de Breeze, las diversas opciones de voces me permitieron vislumbrar cómo las personas pueden personalizar su experiencia. Por primera vez, entendí cómo La gente puede usar la IA como compañera.
La precisión de la respuesta aún no está del todo ahí.
Si bien muchas de las respuestas individuales que recibí del Modo de voz avanzado fueron precisas y útiles, mis conversaciones en general fueron menos exitosas.
A veces, el chatbot dejaba de escuchar mi voz o comenzaba tarde. Un portavoz de OpenAI dijo que la empresa utilizó los aprendizajes de la versión alfa para mejorar la velocidad y la fluidez de las conversaciones. Por lo tanto, es posible que algunos de esos fallos se solucionen.
El modo de voz avanzado tampoco ofrecía la minuciosidad ni el detalle que ofrece el modo de texto. También hubo algunos casos en los que la conversación se descontroló.
Por ejemplo, le pedí a Advanced Voice Mode que me recomendara el mejor programa de recompensas de tarjetas de crédito, pero se desvió hacia una conversación sobre mis pasatiempos. Finalmente, me sugirió American Express, pero tuve que redirigir la conversación varias veces y no ofreció muchos detalles sobre la tarjeta.
El modo de voz avanzado de ChatGPT parece muy diferente al de Siri u otros asistentes de voz, que no ofrecen conversaciones fluidas ni captan las emociones, pero aún no está a la altura de la versión de texto.