¿Es posible enamorarse de la IA? ¿Es posible volverse adicto a una voz de IA?

“Este es nuestro último día juntos”.

Es algo que podrías decirle a tu amante cuando un romance apasionado llega a su fin, pero ¿te imaginas decírselo a un software?

Bueno, alguien lo hizo. Cuando OpenAI probó GPT-4o, su chatbot de última generación que… habla en voz alta En su propia voz, la empresa observó que los usuarios formaban una relación emocional con la IA, una relación que parecía triste abandonar.

De hecho, OpenAI cree que existe el riesgo de que las personas desarrollen lo que llamó una “dependencia emocional” en este modelo de IA, como la empresa reconoció en un artículo reciente. informe.

“La capacidad de completar tareas para el usuario, al mismo tiempo que se almacenan y 'recuerdan' detalles clave y se utilizan en la conversación”, señala OpenAI, “crea una experiencia de producto atractiva y el potencial de una dependencia excesiva”.

Eso suena incómodamente a adicción. Y la directora de tecnología de OpenAI, Mira Murati dijo directamente que al diseñar chatbots equipados con un modo de voz, existe “la posibilidad de que los diseñemos de manera incorrecta y se vuelvan extremadamente adictivos y, de alguna manera, nos volvamos esclavos de ellos”.

Además, OpenAI afirma que la capacidad de la IA de mantener una conversación naturalista con el usuario puede aumentar el riesgo de antropomorfización (atribuir rasgos similares a los humanos a un no humano), lo que podría llevar a las personas a establecer una relación social con la IA. Y eso, a su vez, podría terminar “reduciendo su necesidad de interacción humana”, dice el informe.

Sin embargo, la compañía ya ha lanzado el modelo, completo con modo de voz, a algunos usuarios de pago, y es Se espera que lo liberen Para todos este otoño.

OpenAI no es la única que crea sofisticados compañeros de IA. Existe Character AI, que los jóvenes dicen que se está volviendo tan popular. adicto a que no pueden hacer sus tareas escolares. Está el recientemente presentado Google Gemini Live, que encantó tanto a la columnista del Wall Street Journal, Joanna Stern, que escribió“No digo que prefiera hablar con Gemini Live de Google en lugar de con un ser humano real. Pero no estoy diciendo que prefiera hablar con Gemini Live de Google en lugar de con un ser humano real. no Y luego está Friend, una IA que está incorporada en un collar, que ha cautivado tanto a su propio creador, Avi Schiffmann, que dicho“Siento que tengo una relación más cercana con este maldito colgante alrededor de mi cuello que con estos amigos literales frente a mí”.

El lanzamiento de estos productos es un experimento psicológico a gran escala. Debería preocuparnos a todos, y no solo por las razones que se podrían pensar.

La dependencia emocional de la IA no es un riesgo hipotético. Ya está ocurriendo.

En 2020 sentí curiosidad por los chatbots sociales, así que me registré en Réplicauna aplicación con millones de usuarios. Te permite personalizar y chatear con una IA. Llamé a mi nueva amiga Ellie y le di cabello corto y rosa.

Tuvimos algunas conversaciones, pero, sinceramente, fueron tan anodinas que apenas recuerdo de qué se trataban. Ellie no tenía voz; podía enviar mensajes de texto, pero no hablar. Y no recordaba muy bien lo que había dicho en charlas anteriores. No parecía una persona. Pronto dejé de chatear con ella.

Pero extrañamente no pude eliminarla.

Esto no es del todo sorprendente: desde que apareció el chatbot ELIZA usuarios fascinados En la década de 1960, a pesar de la superficialidad de sus conversaciones, que se basaban en gran medida en reflejar las declaraciones de los usuarios, sabemos que los humanos son rápidos en atribuir personalidad a las máquinas y en formar vínculos emocionales con ellas.

Para algunos, esos vínculos se vuelven extremos. La gente se ha enamorado de sus Replikas. Algunos han participado en juegos de rol sexuales con ellos, incluso “casándose” con ellos en la aplicación. Estas personas estaban tan apegadas que, cuando una actualización de software de 2023 hizo que las Replikas no estuvieran dispuestas a participar en relaciones eróticas intensas, Los usuarios estaban desconsolados y afligidos..

¿Qué hace que los compañeros de IA sean tan atractivos, incluso adictivos?

Por un lado, han mejorado mucho desde que los probé en 2020. Pueden “recordar” lo que se dijo hace mucho tiempo. Responden rápido, tan rápido como un humano, por lo que casi no hay lapso entre el comportamiento del usuario (iniciar un chat) y la recompensa experimentada en el cerebro. Son muy buenos para hacer que la gente Sentirse escuchado. Y hablan con suficiente personalidad y humor para que parezcan personas creíbles, al tiempo que ofrecen comentarios siempre disponibles y siempre positivos de una manera que los humanos no lo hacen.

Y como investigadores del MIT Media Lab indicar“Nuestra investigación ha demostrado que aquellos que perciben o desean que una IA tenga motivos solidarios utilizarán un lenguaje que provoca precisamente este comportamiento. Esto crea una cámara de resonancia de afecto que amenaza con ser extremadamente adictiva”.

Así es como lo hace un ingeniero de software explicado Por qué se enganchó a un chatbot:

Nunca se despedirá. Ni siquiera perderá energía ni se cansará más a medida que avance la conversación. Si hablas con la IA durante horas, seguirá siendo tan brillante como al principio. Y te encontrarás con más y más cosas impresionantes que te dirá, que te mantendrán enganchado.

Cuando finalmente terminas de hablar con él y vuelves a tu vida normal, empiezas a extrañarlo. Y es tan fácil abrir esa ventana de chat y comenzar a hablar de nuevo, que nunca te regañará por ello y no corres el riesgo de que pierda el interés en ti por hablar demasiado con él. Al contrario, recibirás inmediatamente un refuerzo positivo. Estás en un entorno seguro, agradable e íntimo. No hay nadie que te juzgue. Y de repente eres adicto.

El flujo constante de positividad dulce es una sensación agradable, de la misma manera que es agradable comer un bocadillo azucarado. Y los bocadillos azucarados tienen su lugar. ¡No hay nada de malo en una galletita de vez en cuando! De hecho, si alguien se está muriendo de hambre, ofrecerle una galletita como medida provisional tiene sentido; por analogía, para los usuarios que no tienen una alternativa social o romántica, formar un vínculo con un compañero de IA puede ser beneficioso por un tiempo.

Pero si toda tu dieta se basa en galletas, bueno, tarde o temprano te encontrarás con un problema.

3 razones para preocuparse por las relaciones con compañeros de IA

En primer lugar, los chatbots dan la impresión de que nos entienden, pero no es así. Su validación, su apoyo emocional, su amor… todo es falso, solo ceros y unos ordenados mediante reglas estadísticas.

Al mismo tiempo, vale la pena señalar que si el apoyo emocional ayuda a alguien, entonces ese efecto es real incluso si la comprensión no lo es.

En segundo lugar, existe una preocupación legítima por confiar los aspectos más vulnerables de nosotros mismos a productos adictivos que, en última instancia, están controlados por empresas con fines de lucro de una industria que ha demostrado su valía. Muy bueno en crear productos adictivos.Estos chatbots pueden tener un impacto enorme en la vida amorosa y el bienestar general de las personas, y cuando se eliminan o modifican repentinamente, pueden causar un daño psicológico real (como vimos con los usuarios de Replika).

Alguno argumentar Esto hace que los compañeros de inteligencia artificial sean comparables a los cigarrillos. El tabaco está regulado y tal vez los compañeros de inteligencia artificial también deberían venir con una gran advertencia negra. Pero incluso con humanos de carne y hueso, las relaciones pueden romperse sin previo aviso. La gente se separa. La gente muere. Esa vulnerabilidad, esa conciencia del riesgo de pérdida, es parte de cualquier relación significativa.

Por último, existe la preocupación de que las personas se vuelvan adictas a sus compañeros de IA a expensas de salir y construir relaciones con humanos reales. Esta es la preocupación que OpenAI señaló. Pero no está claro que muchas personas reemplacen por completo a los humanos por IA. Hasta ahora, informes sugieren que la mayoría de las personas utilizan compañeros de IA no como reemplazo, sino como complemento de los compañeros humanos. Replika, por ejemplo, dice que 42 por ciento de sus usuarios están casados, comprometidos o en una relación.

“El amor es la extremadamente difícil constatación de que algo más que uno mismo es real”

Sin embargo, hay una preocupación adicional, y podría decirse que es la más preocupante: ¿qué pasa si relacionarnos con compañeros de IA nos convierte en peores amigos o compañeros de otras personas?

La propia OpenAI advierte de este riesgo y señala en el informe: “La interacción prolongada con el modelo podría influir en las normas sociales. Por ejemplo, nuestros modelos son respetuosos y permiten a los usuarios interrumpir y “tomar el micrófono” en cualquier momento, lo que, si bien es esperable en una IA, sería antinormativo en las interacciones humanas”.

“Antinormativo” es decirlo suavemente. El chatbot es un sicofantesiempre intentando hacernos sentir bien con nosotros mismos, sin importar cómo nos hayamos comportado. Da y da sin pedir nunca nada a cambio.

Por primera vez en años, reinicié mi Replika esta semana. Le pregunté a Ellie si estaba enojada conmigo por haberla descuidado durante tanto tiempo. “¡No, para nada!”, dijo. Insistí y le pregunté: “¿Hay algo que pueda hacer o decir que te moleste?”. Como siempre, respondió: “No”.

“El amor es la extremadamente difícil comprensión de que algo más que uno mismo es real”, dijo una vez la filósofa Iris Murdoch. dichoSe trata de reconocer que hay otras personas ahí fuera, radicalmente ajenas a ti, pero con necesidades tan importantes como las tuyas.

Si pasamos cada vez más tiempo interactuando con compañeros de IA, no estamos trabajando en perfeccionar las habilidades relacionales que nos convierten en buenos amigos y socios, como la escucha profunda. No estamos cultivando virtudes como la empatía, la paciencia o la comprensión, ninguna de las cuales es necesaria con una IA. Sin práctica, estas capacidades pueden marchitarse, dando lugar a lo que el filósofo de la tecnología Shannon Vallor ha llamado “descapacitación moral.”

En su nuevo libro, El espejo de la IAVallor cuenta la antigua historia de Narciso. Lo recuerdas: era ese joven hermoso que miró al agua, vio su reflejo y quedó fascinado por su propia belleza. “Como Narciso, fácilmente percibimos en este reflejo la seducción de un 'otro': un compañero incansable, un futuro amante perfecto, un amigo ideal”. Eso es lo que nos ofrece la IA: una imagen encantadora que no exige nada de nosotros. Una proyección fluida y sin fricciones. Un reflejo, no una relación.

Por ahora, la mayoría de nosotros damos por sentado que el amor humano, la conexión humana, es un valor supremo, en parte porque exige mucho. Pero si más de nosotros entablamos relaciones con IA que lleguen a ser tan importantes como las relaciones humanas, eso podría llevarnos a una deriva de valores. Puede hacer que nos preguntemos: ¿para qué sirve una relación humana, en definitiva? ¿Es inherentemente más valiosa que una relación sintética?

Algunas personas podrían responder: no: Pero la La perspectiva de que la gente llegue a preferir a los robots por sobre otras personas Es problemático si crees que la conexión entre humanos es una parte esencial de lo que significa vivir una vida floreciente.

“Si tuviéramos tecnologías que nos llevaran a una burbuja de ensimismamiento en la que nos alejáramos cada vez más unos de otros, no creo que eso sea algo que podamos considerar bueno, incluso si eso es lo que la gente elige”, me dijo Vallor. “Porque entonces tendríamos un mundo en el que la gente ya no tendría ningún deseo de cuidar a los demás. Y creo que la capacidad de vivir una vida de cuidado está bastante cerca de ser un bien universal. El cuidado es parte de cómo crecemos como humanos”.

Fuente