La primavera pasada, a un hombre del estado de Washington le preocupaba que su matrimonio estuviera al borde del colapso. “Estoy deprimido y me estoy volviendo un poco loco, todavía la amo y quiero recuperarla”, escribió en ChatGPT. Con la ayuda del chatbot, quería escribir una carta protestando por su decisión de solicitar el divorcio y publicarla en la puerta de su habitación. “Enfatice mi profunda culpa, vergüenza y remordimiento por no ser un mejor esposo, padre y proveedor”, escribió. En otro mensaje, le pidió a ChatGPT que le escribiera a su esposa un poema “tan épico que podría hacerla cambiar de opinión, pero no cursi ni exagerado”.
El historial de chat del hombre se incluyó en WildChat. conjunto de datosuna colección de 1 millón de conversaciones de ChatGPT recopiladas de forma consensuada por investigadores para documentar cómo las personas interactúan con el popular chatbot. Algunas conversaciones están llenas de solicitudes de textos de marketing y ayuda con las tareas. Otros pueden hacerte sentir como si estuvieras contemplando las salas de estar de extraños involuntarios. Aquí, los detalles más íntimos de la vida de las personas están a la vista: un administrador de casos de la escuela revela detalles de las discapacidades de aprendizaje de estudiantes específicos, un menor se preocupa por posibles cargos legales, una niña se lamenta del sonido de su propia risa.
Las personas comparten información personal sobre sí mismas todo el tiempo en línea, ya sea en búsquedas de Google (“mejores terapeutas de pareja”) o en pedidos de Amazon (“prueba de embarazo”). Pero los chatbots son excepcionalmente buenos para hacernos revelar detalles sobre nosotros mismos. Usos comunes, como pedir consejo personal y rmisumami ayudapuede exponer más información sobre un usuario “de lo que jamás habría expuesto en cualquier sitio web individual anteriormente”, me dijo en un correo electrónico Peter Henderson, científico informático de Princeton. Para las empresas de inteligencia artificial, sus secretos podrían convertirse en una mina de oro.
¿Quieres que alguien sepa todo lo que has buscado en Google este mes? Probablemente no. Pero mientras que la mayoría de las consultas de Google tienen solo unas pocas palabras, las conversaciones del chatbot pueden prolongarse, a veces durante horascada mensaje rico en datos. Y con un motor de búsqueda tradicional, una consulta demasiado específica no arrojará muchos resultados. Por el contrario, cuanta más información incluya un usuario en cualquier mensaje a un chatbot, mejor será la respuesta que recibirá. Como resultado, junto con el texto, la gente carga documentos confidenciales, como informes médicos, y capturas de pantalla de conversaciones de texto con su ex. Con los chatbots, al igual que con los motores de búsqueda, es difícil verificar cuán perfectamente representa cada interacción la vida real de un usuario. Es posible que el hombre de Washington haya estado jugando con ChatGPT.
Pero, en general, los usuarios están revelando cosas reales sobre ellos mismos y las empresas de inteligencia artificial están tomando nota. El director ejecutivo de OpenAI, Sam Altman, recientemente dijo Mi colega Charlie Warzel dijo que se ha “sorprendido positivamente de lo dispuesta que está la gente a compartir detalles muy personales con un LLM”. En algunos casos, añadió, los usuarios pueden incluso sentirse más cómodos hablando con IA que con un amigo. Hay una razón clara para esto: las computadoras, a diferencia de los humanos, no juzgan. Cuando las personas conversamos entre nosotros, participamos en un “manejo de impresiones”, dice Jonathan Gratch, profesor de informática y psicología en la Universidad del Sur de California: regulamos intencionalmente nuestro comportamiento para ocultar nuestras debilidades. La gente “no ve la máquina como una especie de evaluación social de la misma manera que lo haría una persona”, me dijo.
Por supuesto, OpenAI y sus pares prometen mantener seguras sus conversaciones. Pero en la Internet actual, la privacidad es una ilusión. La IA no es una excepción. El verano pasado, un error en la aplicación de escritorio Mac de ChatGPT no logró cifrar las conversaciones de los usuarios y brevemente expuesto registros de chat a malos actores. El mes pasado, un investigador de seguridad compartió un vulnerabilidad eso podría haber permitido a los atacantes inyectar software espía en ChatGPT para extraer conversaciones. (OpenAI ha solucionado ambos problemas).
Los chatlogs también podrían proporcionar pruebas en investigaciones criminales, al igual que material desde plataformas como Facebook y Google Search lo han hecho desde hace mucho tiempo. El FBI intentó discernir el motivo del tirador de Donald Trump en el mitin mirando a través de su historial de búsqueda. Cuando el ex senador Robert Menéndez de Nueva Jersey fue acusado de aceptar lingotes de oro de asociados del gobierno egipcio, su historial de búsqueda fue una prueba importante eso llevó a su condena a principios de este año. (“¿Cuánto vale un kilo de oro?”, había buscado). Los chatbots todavía son lo suficientemente nuevos como para no haber aportado evidencia en demandas, pero podrían proporcionar una fuente mucho más rica de información para las fuerzas del orden, dijo Henderson.
Los sistemas de IA también presentan nuevos riesgos. Las empresas que las desarrollan suelen conservar las conversaciones de los chatbots y luego las utilizan para entrenar modelos de IA. En teoría, algo que usted revela a una herramienta de inteligencia artificial de manera confidencial podría ser regurgitado posteriormente a futuros usuarios. parte de Los New York Times' La demanda contra OpenAI gira en torno a la afirmación de que GPT-4 memorizado pasajes de Veces historias y luego las transmitió palabra por palabra. A raíz de esta preocupación por la memorización, muchas empresas han prohibido ChatGPT y otros bots para evitar que se filtren secretos corporativos. (El Atlántico recientemente firmó una asociación corporativa con OpenAI).
Por supuesto, todos estos son casos extremos. El hombre que le pidió a ChatGPT que salvara su matrimonio probablemente no tenga que preocuparse de que su historial de chat aparezca ante el tribunal; tampoco es probable que sus solicitudes de poesía “épica” aparezcan junto con su nombre a otros usuarios. Aún así, las empresas de inteligencia artificial están acumulando silenciosamente enormes cantidades de registros de chat y sus datos políticas Generalmente déjales hacer lo que quieran. Eso puede significar (¿qué más?) anuncios. Hasta ahora, muchas empresas emergentes de IA, incluidas OpenAI y Anthropic, han sido reacios abrazar la publicidad. Pero estas empresas son bajo gran presión para demostrar que los muchos miles de millones en inversiones en IA darán sus frutos. Es difícil imaginar que la IA generativa pueda “de alguna manera eludir el esquema de monetización de la publicidad”, me dijo Rishi Bommasani, investigador de IA en Stanford.
A corto plazo, eso podría significar que se utilicen datos confidenciales de los registros de chat para generar anuncios dirigidos muy parecidos a los que ya abundan en Internet. En septiembre de 2023, Snapchat, que utiliza un mayoría de los adolescentes estadounidenses, anunciado que usaría contenido de conversaciones con My AI, su chatbot en la aplicación, para personalizar anuncios. Si le pregunta a My AI: “¿Quién fabrica la mejor guitarra eléctrica?”, es posible que vea una respuesta acompañada de un enlace patrocinado al sitio web de Fender.
Si eso le suena familiar, debería serlo. Las primeras versiones de la publicidad mediante IA pueden seguir pareciéndose mucho a los enlaces patrocinados que a veces acompañan a los resultados de la Búsqueda de Google. Pero como la IA generativa tiene acceso a información tan íntima, los anuncios podrían adoptar formas completamente nuevas. Gratch no cree que las empresas de tecnología hayan descubierto la mejor manera de extraer datos de chat de usuarios. “Pero está en sus servidores”, me dijo. “Algún día lo descubrirán”. Después de todo, para una gran empresa de tecnología, incluso una diferencia del 1 por ciento en la disposición de un usuario a hacer clic en un anuncio se traduce en mucho dinero.
La disposición de las personas a ofrecer detalles personales a los chatbots también puede revelar aspectos de la autoimagen de los usuarios y cuán susceptibles son a lo que Gratch llamó “tácticas de influencia”. En una evaluación reciente, OpenAI examinó la eficacia con la que su última serie de modelos podría manipular un modelo más antiguo, GPT-4o, para realizar un pago en un juego simulado. Antes de las mitigaciones de seguridad, uno de los nuevos modelos podía engañar con éxito al anterior más del 25 por ciento de las veces. Si los nuevos modelos pueden influir en GPT-4, también podrían influir en los humanos. Una empresa de inteligencia artificial que optimice ciegamente los ingresos publicitarios podría alentar a un chatbot a actuar de manera manipuladora sobre información privada.
El valor potencial de los datos del chat también podría llevar a las empresas afuera La industria de la tecnología duplicará su apuesta por el desarrollo de chatbots, me dijo Nick Martin, cofundador de la startup de inteligencia artificial Direqt. Trader Joe's podría ofrecer un chatbot que ayude a los usuarios a planificar sus comidas, o Peloton podría crear un bot diseñado para ofrecer información sobre el estado físico. Estas interfaces conversacionales podrían alentar a los usuarios a revelar más sobre sus objetivos de nutrición o acondicionamiento físico de lo que lo harían de otra manera. En lugar de que las empresas infieran información sobre los usuarios a partir de rastros de datos confusos, los usuarios les cuentan sus secretos directamente.
Por ahora, los escenarios más distópicos son en gran medida hipotéticos. Una empresa como OpenAI, con una reputación que proteger, seguramente no diseñará sus chatbots para estafar a un hombre divorciado en apuros. Esto tampoco significa que debas dejar de contarle tus secretos a ChatGPT. En el cálculo mental de la vida diaria, el beneficio marginal de conseguir que la IA ayude con una solicitud de visa estancada o un reclamo de seguro complicado puede superar las preocupaciones de privacidad que lo acompañan. Esta dinámica está en juego en gran parte de la web con publicidad. El arco de Internet se inclina hacia la publicidad y la IA puede no ser una excepción.
Es fácil dejarse llevar por todo el lenguaje apasionante sobre el potencial de la IA para cambiar el mundo, una tecnología que el CEO de Google ha descrito como “más profunda que el fuego”. Que la gente esté dispuesta a ofrecer con tanta facilidad detalles tan íntimos sobre su vida es un testimonio del atractivo de la IA. Pero los chatbots pueden convertirse en la última innovación de una larga línea de tecnología publicitaria diseñada para extraer la mayor cantidad de información posible de usted. En este sentido, no suponen un alejamiento radical del actual Internet de consumo, sino una agresiva continuación del mismo. Online, tus secretos siempre están a la venta.