OpenAI parece terriblemente defensivo con respecto a su motor de voz AI

Por segunda vez en cuestión de meses, OpenAI se ha encontrado explicando su herramienta de conversión de texto a audiorecordando a todos que no está, y puede que nunca esté, ampliamente disponible.

“Es importante que la gente de todo el mundo comprenda hacia dónde se dirige esta tecnología, ya sea que finalmente la implementemos nosotros mismos o no”, dijo la compañía. en una oracion publicado en su sitio web el viernes. “Es por eso que queremos explicar cómo funciona el modelo, cómo lo usamos para la investigación y la educación, y cómo estamos implementando nuestras medidas de seguridad en torno a él.

A finales del año pasado, OpenAI compartió su Motor de voz, que se basa en entradas de texto y clips de audio de 15 segundos de voces humanas para “generar un habla con un sonido natural que se parezca mucho al hablante original”, con un pequeño grupo de usuarios fuera de la empresa. La herramienta puede crear voces que suenen convincentemente humanas en varios idiomas.

En ese momento, la compañía dijo que elegiría hacer una vista previa de la tecnología pero no lanzarla ampliamente para “reforzar la resiliencia de la sociedad” contra la amenaza de “modelos generativos cada vez más convincentes”.

Como parte de esos esfuerzos, OpenAI dijo que estaba trabajando activamente para eliminar gradualmente la autenticación basada en voz para acceder a cuentas bancarias, explorar políticas para proteger el uso de las voces individuales en la IA, educar al público sobre los riesgos de la IA y acelerar el desarrollo del seguimiento. contenido audiovisual para que los usuarios sepan si están interactuando con contenido real o sintético.

Pero a pesar de esos esfuerzos, el miedo a la tecnología persiste.

El jefe de inteligencia artificial del presidente Joe Biden, Bruce Reed, dijo una vez que La clonación de voz es lo único que lo mantiene despierto por la noche.. Y la Comisión Federal de Comercio dijo en marzo que los estafadores estaban usando IA para mejorar su trabajo, utilizando herramientas de clonación de voz que dificultan la distinción entre las voces generadas por IA y las humanas.

En su declaración actualizada El viernes, OpenAI buscó calmar esas preocupaciones.

“Continuamos interactuando con socios estadounidenses e internacionales de todo el gobierno, los medios, el entretenimiento, la educación, la sociedad civil y más para asegurarnos de que incorporamos sus comentarios a medida que construimos”, dijo la compañía.

También señaló que una vez que Voice Engine esté equipado con su último modelo, GPT4o, también planteará nuevas amenazas. Internamente, la compañía dijo que está “formando un equipo activo con GPT-4o para identificar y abordar riesgos conocidos e imprevistos en diversos campos, como la psicología social, el sesgo y la equidad, y la desinformación”.

La pregunta más importante, por supuesto, es qué sucederá cuando la tecnología se lance ampliamente. Y parece que OpenAI también podría estar preparándose.

OpenAI no respondió de inmediato a una solicitud de comentarios de Business Insider.

Fuente