OpenAI teme que la gente pueda volverse emocionalmente dependiente de su nuevo modo de voz ChatGPT


Nueva York
CNN

OpenAI está preocupado de que las personas puedan comenzar a confiar demasiado en ChatGPT como compañía, lo que podría generar una “dependencia”, debido a su nuevo modo de voz que suena humano.

Esa revelación llegó en un informe El jueves, OpenAI habló sobre la revisión de seguridad que realizó de la herramienta (que comenzó a implementarse para usuarios pagos la semana pasada) y el gran modelo de inteligencia artificial de lenguaje en el que se ejecuta.

El modo de voz avanzado de ChatGPT suena increíblemente realista. Responde en tiempo real, puede adaptarse a las interrupciones y hace el tipo de ruidos que hacemos los humanos durante las conversaciones, como reír o decir “hmm”. También puede juzgar el estado emocional de un hablante según su tono de voz.

A pocos minutos de OpenAI anunciando la función En un evento a principios de este año, se estaba en comparación con el asistente digital de IA en la película de 2013 “Her”, de quien el protagonista se enamora, solo para quedar desconsolado cuando la IA admite que “ella” también tiene relaciones con cientos de otros usuarios.

Ahora, OpenAI aparentemente está preocupado de que la historia ficticia esté demasiado cerca de convertirse en realidad, después de decir que observó a usuarios hablando con el modo de voz de ChatGPT en un lenguaje que “expresaba vínculos compartidos” con la herramienta.

Con el tiempo, “los usuarios podrían formar relaciones sociales con la IA, reduciendo su necesidad de interacción humana, lo que podría beneficiar a las personas solitarias, pero posiblemente afecte las relaciones saludables”, afirma el informe. Añade que escuchar información de un bot que suena como un humano podría llevar a los usuarios a confiar en la herramienta más de lo que deberían, dada la propensión de la IA a hacer las cosas mal.

El informe destaca un riesgo general en torno a la inteligencia artificial: las empresas tecnológicas se apresuran a poner a disposición del público herramientas de inteligencia artificial que, según afirman, podrían cambiar radicalmente la forma en que vivimos, trabajamos, socializamos y encontramos información. Pero lo hacen antes de que nadie comprenda realmente cuáles son esas implicaciones. Como sucede con muchos avances tecnológicos, las empresas suelen tener una idea de cómo se pueden y deben utilizar sus herramientas, pero los usuarios idean toda una serie de otras posibles aplicaciones, a menudo con consecuencias no deseadas.

Algunas personas ya lo están formando lo que ellos describen como relaciones románticas con chatbots de IA, lo que generó preocupación entre los expertos en relaciones.

“Las empresas tienen mucha responsabilidad de abordar esto de una manera ética y responsable, y ahora mismo todo está en una fase de experimentación”, dijo a CNN en una entrevista en junio Liesel Sharabi, profesora de la Universidad Estatal de Arizona que estudia tecnología y comunicación humana. “Me preocupan las personas que están formando conexiones muy profundas con una tecnología que podría no existir a largo plazo y que está en constante evolución”.

OpenAI dijo que las interacciones de los usuarios humanos con el modo de voz de ChatGPT también podrían, con el tiempo, influir en lo que se considera normal en las interacciones sociales.

“Nuestros modelos son deferentes y permiten a los usuarios interrumpir y ‘tomar el micrófono’ en cualquier momento, lo que, si bien es esperable para una IA, sería antinormativo en las interacciones humanas”, afirmó la compañía en el informe.

Por ahora, OpenAI dice que está comprometido a construir IA de manera “segura” y planea continuar estudiando el potencial de “dependencia emocional” de los usuarios en sus herramientas.

Fuente