Home Tecnología OpenAI lanza el modo voz tras retrasarlo por razones de seguridad

OpenAI lanza el modo voz tras retrasarlo por razones de seguridad

71
0
OpenAI lanza el modo voz tras retrasarlo por razones de seguridad

SAN FRANCISCO — El fabricante de ChatGPT, OpenAI, dijo el martes que comenzaría a implementar su nuevo modo de voz para los clientes, un mes después retrasando el lanzamiento para realizar más pruebas de seguridad en la herramienta.

IA abierta En mayo, la compañía presentó el modo de voz conversacional, que puede detectar diferentes tonos de voz y responder a las interrupciones, de manera muy similar a un humano. Pero algunos investigadores criticaron rápidamente a la compañía por mostrar un producto de inteligencia artificial que se apegaba a los estereotipos sexistas sobre las asistentes femeninas que son coquetas y obedientes. La actriz Scarlett Johansson afirmó que la compañía había copió su voz de la película “Her”, en la que un robot de inteligencia artificial desarrolla una relación romántica con un hombre.

Los registros de OpenAI muestran que funcionó con un actor completamente diferentey retiró la voz, llamada Sky, de su producto. En junio, dijo que retrasaría el lanzamiento del modo de voz para realizar más pruebas de seguridad. El nuevo modo de voz que se lanzará el martes no incluye la voz de Sky, confirmó un portavoz de OpenAI.

Las empresas tecnológicas han trabajado durante años para crear chatbots de inteligencia artificial conversacional. Alexa de Amazon y Siri de Apple Son omnipresentes y millones de personas las utilizan para programar temporizadores y consultar el tiempo, pero no son lo suficientemente capaces para tareas complejas. Ahora, OpenAI, Google, Microsoft, Apple y una gran cantidad de otras empresas tecnológicas están tratando de utilizar los avances en IA generativa. para finalmente construir el tipo de asistente que ha sido un elemento fijo de la ciencia ficción durante décadas.

Los seguidores y clientes de OpenAI han pedido a gritos el modo de voz, y algunos se quejaron en Internet cuando la empresa retrasó el lanzamiento en junio. La nueva función estará disponible inicialmente para un pequeño número de usuarios y la empresa la irá abriendo gradualmente a todos los clientes de pago de OpenAI antes del otoño.

Las versiones anteriores de ChatGPT tenían la capacidad de escuchar preguntas habladas y responder con audio transcribiendo las preguntas en texto, pasándolas por su algoritmo de IA y luego leyendo su respuesta de texto en voz alta. Pero las nuevas funciones de voz se basan en el último modelo de IA de OpenAI, que procesa directamente el audio sin necesidad de convertirlo primero en texto. Eso permite que el bot escuche varias voces a la vez y determine el tono de voz de una persona, respondiendo de manera diferente según lo que crea que son las emociones de la persona.

Esto abre un conjunto de preguntas completamente nuevo, como por ejemplo cómo entran en juego las diferencias culturales o si las personas podrían desarrollar relaciones con robots que están entrenados para responder a sus emociones de maneras específicas. OpenAI dijo que trabajó con personas representando 45 idiomas y 29 “geografías” para mejorar las capacidades del modelo de IA.

Solo estarán disponibles cuatro voces únicas para usar, y la herramienta bloqueará los intentos de que el bot genere voces de personas reales, dijo la compañía.

Fuente