Los investigadores se preocupan por la posibilidad de que la IA convierta a los humanos en idiotas

Nunca ha sido tan difícil para la gente empezar a tratar a las computadoras como a los seres humanos. Desde entonces Chatbots basados ​​en texto Cuando la tecnología empezó a ganar atención a principios de los años 2000, un pequeño subconjunto de usuarios de tecnología pasó horas manteniendo conversaciones con máquinas. En algunos casos, los usuarios formaron lo que creen que son amistades genuinas e incluso relaciones románticas con fragmentos de código inanimados. Al menos un usuario de Réplicauna herramienta de inteligencia artificial conversacional más moderna, tiene incluso Virtualmente se casó con su compañera de IA.

Investigadores de seguridad de OpenAI, que no son ajenos a tener el propio chatbot de la empresa Aparentemente solicita relaciones con algunos usuarios.advierte ahora sobre los posibles peligros de acercarse demasiado a estos modelos. En un reciente análisis de seguridad De su nuevo, Chatbot conversacional GPT4oLos investigadores dijeron que el ritmo conversacional realista y que suena humano del modelo podría llevar a algunos usuarios a antropomorfizar la IA y confiar en ella como lo haría con un humano.

( Relacionado: El 13 por ciento de los usuarios de bots de chat de IA en EE. UU. solo quieren hablar )

Este nivel adicional de comodidad o confianza, añadieron los investigadores, podría hacer que los usuarios sean más susceptibles a creer en la IA fabricada.alucinaciones” como declaraciones verdaderas de hechos. Pasar demasiado tiempo interactuando con estos chatbots cada vez más realistas también puede terminar influyendo en las “normas sociales”, y no siempre de manera positiva. Otras personas particularmente aisladas, señala el informe, podrían desarrollar una “dependencia emocional” de la IA.

Las relaciones con una IA realista pueden afectar la forma en que las personas se comunican entre sí

GPT4o, que comenzó a implementarse a fines del mes pasado, fue diseñado específicamente para comunicarse de maneras que se sientan y suenen más humanas. A diferencia de ChatGPT Antes de eso, GPT4o se comunicaba mediante audio de voz y podía responder a consultas casi con la misma rapidez (alrededor de 232 milisegundos) como otra persona. Una de las voces de IA seleccionables, que supuestamente suena similar a un personaje de IA interpretado por Scarlett Johansson en la película Su, ya ha sido Acusada de ser demasiado sexualizada y coquetaIrónicamente, la película de 2013 se centra en un hombre solitario que se enamora de una asistente de inteligencia artificial que le habla a través de un auricular. (Spoiler: no termina bien para los humanos). Johansson tiene acusó a OpenAI de copiar su voz sin su consentimientolo que la empresa niega. Altman, por su parte, ha llamado previamente Su Increíblemente profético.”

Pero los investigadores de seguridad de OpenAI dicen que esta imitación humana podría ir más allá del intercambio ocasional de expresiones de vergüenza ajena y adentrarse en un territorio potencialmente peligroso. En una sección del informe titulada “Antropomorfismo y dependencia emocional”, los investigadores de seguridad dijeron que observaron que los evaluadores humanos usaban un lenguaje que sugería que estaban formando convenciones fuertes e íntimas con los modelos. Uno de esos evaluadores supuestamente usó la frase “Este es nuestro último día juntos”, antes de separarse de la máquina. Aunque aparentemente son “benignas”, los investigadores dijeron que este tipo de relaciones deberían investigarse para comprender cómo se “manifiestan en períodos de tiempo más largos”.

La investigación sugiere que estas conversaciones prolongadas con modelos de IA que suenan bastante convincentemente humanos podrían tener “externalidades” que afecten las interacciones entre humanos. En otras palabras, los patrones de conversación aprendidos al hablar con una IA podrían aparecer cuando esa misma persona mantenga una conversación con un humano. Pero hablar con una máquina y con un humano no es lo mismo, aunque puedan sonar similares en la superficie. OpenAI señala que su modelo está programado para ser deferente con el usuario, lo que significa que cederá autoridad y dejará que el usuario lo interrumpa y dicte la conversación. En teoría, un usuario que normalice las conversaciones con las máquinas podría encontrarse interviniendo, interrumpiendo y sin observar las señales sociales generales. Aplicar la lógica de las conversaciones de los chatbots a los humanos podría hacer que una persona se sienta incómoda, impaciente o simplemente grosera.

Los humanos no tenemos precisamente una gran trayectoria récord de tratar amablemente las máquinasEn el contexto de los chatbots, algunos usuarios de Replica supuestamente se han aprovechado de la deferencia de la modelo hacia el usuario para utilizar un lenguaje abusivo, insultante y cruel. Un usuario entrevistado por Futurism a principios de este año afirmó que Amenazó con desinstalar su modelo de réplica de IA Sólo para oírle rogarle que no lo hiciera. Si esos ejemplos sirven de guía, los chatbots podrían correr el riesgo de convertirse en un caldo de cultivo para el resentimiento que luego podría manifestarse en las relaciones del mundo real.

Los chatbots con un mayor nivel de sensibilidad humana no son necesariamente malos. En el informe, los investigadores sugieren que los modelos podrían beneficiar especialmente a las personas solitarias que anhelan algún tipo de conversación humana. Por otra parte, algunos usuarios de IA han afirmado que las comparaciones con IA pueden ayudar a las personas ansiosas o nerviosas. Desarrollar la confianza para comenzar a salir con alguien en el futuro en el mundo real. Los chatbots también ofrecen a las personas con diferencias de aprendizaje una Salida para expresarse libremente y practicar la conversación con relativa privacidad.

Por otro lado, los investigadores de seguridad de la IA temen que las versiones avanzadas de estos modelos puedan tener el efecto opuesto y reducir la necesidad percibida de una persona de hablar con otros seres humanos y desarrollar relaciones saludables con ellos. Tampoco está claro cómo responderían las personas que dependen de estos modelos para tener compañía a un cambio de personalidad del modelo a través de una actualización o incluso rompiendo con ellos. Como se informa que ha sucedido en el pasadoEl informe señala que todas estas observaciones requieren más pruebas e investigaciones. Los investigadores dicen que les gustaría reclutar una población más amplia de evaluadores que tengan “necesidades y deseos variados” de modelos de IA para comprender cómo cambia su experiencia a lo largo de períodos de tiempo más largos.

Las preocupaciones sobre la seguridad de la IA chocan con los intereses comerciales

El tono del informe de seguridad, que enfatiza la precaución y la necesidad de más investigaciones, parece ir en contra de la estrategia comercial más amplia de OpenAI de producir nuevos productos cada vez más rápidamente. Esta aparente tensión entre seguridad y velocidad no es nueva. El director ejecutivo Sam Altman se encontró en la centro de una lucha de poder corporativa en la empresa el año pasado después de que algunos miembros de la junta presunto “No era siempre sincero en sus comunicaciones”.

Altman finalmente salió victorioso de esa escaramuza y Finalmente se formó un nuevo equipo de seguridad. con él mismo al mando. La empresa también Según se informa, disolvió un equipo de seguridad se centró exclusivamente en analizar los riesgos de la IA a largo plazo. Ese cambio inspiró la renuncia del destacado investigador de OpenAI, Jan Leike, quien publicó un comunicado alegando que la cultura de seguridad de la empresa había “pasado a un segundo plano frente a los productos brillantes” en la empresa.

Teniendo en cuenta todo este contexto general, es difícil predecir qué mentes gobernarán el día en OpenAI en lo que respecta a la seguridad de los chatbots. ¿La empresa prestará atención a los consejos de los miembros del equipo de seguridad y estudiará los efectos de las relaciones a largo plazo con sus IA realistas, o simplemente implementará el servicio para la mayor cantidad posible de usuarios con funciones destinadas abrumadoramente a privatizar la participación y la retención? Al menos hasta ahora, el enfoque parece ser el segundo.

Fuente