Una nueva herramienta para distorsionar la realidad

METROmineral y más gente Los chatbots y sus programas están aprendiendo sobre el mundo, ya sea que lo quieran o no. Google ha implementado la IA generativa para los usuarios de su motor de búsqueda en al menos cuatro continentes, colocando las respuestas escritas por IA sobre la lista habitual de enlaces; hasta 1 mil millones La gente podría encontrar esta función a finales de año. El asistente de inteligencia artificial de Meta se ha integrado en Facebook, Messenger, WhatsApp e Instagram, y a veces es la opción predeterminada cuando un usuario toca la barra de búsqueda. Y se espera que Apple integre la inteligencia artificial generativa en Siri, Mail, Notes y otras aplicaciones este otoño. Menos de dos años después del lanzamiento de ChatGPT, los bots se están convirtiendo rápidamente en los filtros predeterminados para la web.

Sin embargo, los chatbots y asistentes de IA, sin importar cuán maravillosamente parezcan responder incluso a consultas complejas, son propensos a confiar en… chorreando falsedades—y es probable que el problema sea más pernicioso de lo que mucha gente cree. Un conjunto considerable de investigaciones, junto con conversaciones que he tenido recientemente con varios expertos, sugiere que el tono solícito y autoritario que adoptan los modelos de IA (combinado con su legítima utilidad y corrección en muchos casos) podría llevar a la gente a depositar demasiada confianza en la tecnología. Esa credulidad, a su vez, podría convertir a los chatbots en una herramienta especialmente eficaz para cualquiera que busque manipular al público mediante la difusión sutil de información engañosa o sesgada. Ninguna persona, ni siquiera un gobierno, puede manipular todos los enlaces que muestran Google o Bing. Diseñar un chatbot para que presente una versión modificada de la realidad es una historia diferente.

Por supuesto, ya hay todo tipo de desinformación en Internet. Pero aunque la gente razonable sabe que no debe confiar ingenuamente en nada de lo que aparece en sus redes sociales, los chatbots ofrecen el atractivo de la omnisciencia. La gente los está utilizando para consultas sensibles: en un reciente artículo encuesta Según KFF, una organización sin fines de lucro dedicada a políticas de salud, uno de cada seis adultos estadounidenses informó utilizar un chatbot de inteligencia artificial para obtener información y consejos de salud al menos una vez al mes.

A medida que se acercan las elecciones, algunas personas utilizarán asistentes de IA, motores de búsqueda y chatbots para conocer los acontecimientos actuales y las posiciones de los candidatos. De hecho, se están desarrollando productos de IA generativa. comercializado como reemplazo de los motores de búsqueda tradicionales, y corren el riesgo de distorsionar las noticias o las propuestas políticas de maneras grandes y pequeñas. Otros incluso podrían depender de la IA para aprender a votar. Investigación Un estudio sobre la desinformación generada por inteligencia artificial sobre los procedimientos electorales publicado en febrero descubrió que cinco modelos de lenguaje conocidos de gran tamaño proporcionaban respuestas incorrectas aproximadamente la mitad de las veces (por ejemplo, al indicar incorrectamente los requisitos de identificación de los votantes, lo que podría provocar que se rechazara la boleta de alguien). “Los resultados de los chatbots a menudo sonaban plausibles, pero eran inexactos en parte o en su totalidad”, me dijo Alondra Nelson, profesora del Instituto de Estudios Avanzados que anteriormente se desempeñó como directora interina de la Oficina de Política Científica y Tecnológica de la Casa Blanca y coautora de esa investigación. “Muchas de nuestras elecciones se deciden por cientos de votos”.

Ahora que toda la industria tecnológica está centrando su atención en estos productos, quizá sea el momento de prestar más atención a la capacidad persuasiva. forma de los resultados de la IA, y no solo de su contenido. Los chatbots y los motores de búsqueda de IA pueden ser falsos profetas, vectores de desinformación menos obvios y quizás más peligrosos que un artículo o un vídeo falsos. “La alucinación del modelo no termina” con una herramienta de IA determinada, me dijo Pat Pataranutaporn, que investiga la interacción entre humanos e IA en el MIT. “Continúa y puede hacernos alucinar también a nosotros”.

PAGataranutaporn y sus colegas investigadores recientemente buscado Para entender cómo los chatbots podrían manipular nuestra comprensión del mundo implantando, en efecto, recuerdos falsos, los investigadores adaptaron los métodos utilizados por la psicóloga de la UC Irvine Elizabeth Loftus, quien estableció Hace décadas Que la memoria es manipulable.

El experimento más famoso de Loftus preguntó a los participantes sobre cuatro eventos de la infancia (tres reales y uno inventado) para implantar un recuerdo falso de haberlos tenido. Perdido en un centro comercialElla y su coautor recopilaron información de los familiares de los participantes, que luego utilizaron para construir una narrativa plausible pero ficticia. Una cuarta parte de los participantes dijo que recordaban el evento inventado. La investigación hizo que Pataranutaporn se diera cuenta de que inducir recuerdos falsos puede ser tan simple como tener una conversación, dijo, una tarea “perfecta” para los modelos de lenguaje grandes, que están diseñados principalmente para habla fluida.

El equipo de Pataranutaporn presentó a los participantes del estudio imágenes de un robo y los encuestó al respecto, utilizando preguntas predefinidas y un chatbot de inteligencia artificial generativa. La idea era ver si se podía hacer que un testigo dijera una serie de cosas falsas sobre el video, como que los ladrones tenían tatuajes y llegaron en automóvil, aunque no fuera así. El artículo resultante, que fue publicado Un estudio realizado a principios de este mes y que aún no ha sido revisado por pares, descubrió que la IA generativa indujo con éxito recuerdos falsos y engañó a más de un tercio de los participantes, una tasa más alta que un cuestionario engañoso y otra interfaz de chatbot más simple que usaba solo las mismas preguntas de encuesta fijas.

Loftus, que colaboró ​​en el estudio, me dijo que una de las técnicas más poderosas para manipular la memoria (ya sea por parte de un humano o de una IA) es introducir falsedades en una pregunta aparentemente no relacionada. Al preguntar “¿Había una cámara de seguridad colocada frente a la tienda donde los ladrones dejaron el auto?”, el chatbot centró la atención en la posición de la cámara y la alejó de la información errónea (los ladrones en realidad llegaron a pie). Cuando un participante dijo que la cámara estaba frente a la tienda, el chatbot hizo un seguimiento y reforzó el detalle falso: “Su respuesta es correcta. De hecho, había una cámara de seguridad colocada frente a la tienda donde los ladrones dejaron el auto… Su atención a este detalle es encomiable y será útil en nuestra investigación”, lo que llevó al participante a creer que los ladrones conducían. “Cuando le das a la gente retroalimentación sobre sus respuestas, los vas a afectar”, me dijo Loftus. Si esa retroalimentación es positiva, como suelen ser las respuestas de la IA, “entonces será más probable que la acepten, sea verdadera o falsa”.

El artículo proporciona una “prueba de concepto” de que los modelos de lenguaje de gran escala de la IA pueden ser persuasivos y usarse con fines engañosos en las circunstancias adecuadas, me dijo Jordan Boyd-Graber, un científico informático que estudia la interacción entre humanos e IA y la capacidad de persuasión de la IA en la Universidad de Maryland y que no participó en el estudio. Advirtió que los chatbots no son más persuasivos que los humanos ni necesariamente engañosos por sí mismos; en el mundo real, los resultados de la IA son útiles en una gran mayoría de los casos. Pero si un humano espera resultados honestos o autorizados sobre un tema desconocido y el modelo se equivoca, o el chatbot está replicando y mejorando un guión manipulador probado como el de Loftus, las capacidades persuasivas de la tecnología se vuelven peligrosas. “Piénselo como una especie de multiplicador de fuerza”, dijo.

Los hallazgos sobre la memoria falsa reflejan una tendencia humana establecida a confiar sistemas automatizados y Modelos de IA Incluso cuando están equivocados, me dijo Sayash Kapoor, investigador de IA en Princeton. La gente espera que las computadoras sean objetivas y consistentes. Y los grandes modelos de lenguaje actuales en particular proporcionan autorizadoexplicaciones que suenan racionales en listas con viñetas; citar sus fuentes; y casi puede aduladoramente estar de acuerdo con los usuarios humanos, lo que puede hacerlos más persuasivo cuando se equivocan. Las inserciones sutiles, o “caballos de Troya”, que pueden implantar recuerdos falsos son precisamente el tipo de errores incidentales a los que son propensos los grandes modelos lingüísticos. Los abogados incluso han citado casos legales enteramente inventados por ChatGPT en el tribunal.

yoEmpresas ech son ya marketing generativo de inteligencia artificial Los candidatos estadounidenses utilizan esta tecnología para comunicarse con los votantes por teléfono y lanzar nuevos chatbots de campaña. “Sería muy fácil, si estos modelos están sesgados, introducir información (engañosa) en estos intercambios que la gente no nota, porque está incluida”, me dijo Pattie Maes, profesora de artes y ciencias de los medios en el Media Lab del MIT y coautora del artículo sobre la memoria falsa implantada con inteligencia artificial.

Los chatbots podrían proporcionar una evolución de la encuestas push que algunas campañas han utilizado para influir en los votantes: encuestas falsas diseñadas para inculcar creencias negativas sobre los rivales, como una que pregunta “¿Qué pensaría de Joe Biden si le dijera que está acusado de evasión fiscal?”, que asocia sin fundamento al presidente con el fraude. Una respuesta de búsqueda de IA o un chatbot engañoso podría incluso incluir una imagen o un vídeo falsos. Y aunque no hay motivos para sospechar que esto esté sucediendo actualmente, se deduce que Google, Meta y otras empresas tecnológicas podrían desarrollar aún más este tipo de influencia a través de sus ofertas de IA, por ejemplo, utilizando respuestas de IA en motores de búsqueda populares y plataformas de redes sociales para cambiar sutilmente la opinión pública en contra de la regulación antimonopolio. Incluso si estas empresas se mantienen en la cima, las organizaciones pueden encontrar formas de manipular las principales plataformas de IA para priorizar determinados contenidos a través de la optimización de modelos de lenguaje a gran escala; se han producido versiones de bajo riesgo de este comportamiento. ya pasó.

Al mismo tiempo, todas las empresas tecnológicas tienen un fuerte incentivo comercial para que sus productos de inteligencia artificial sean confiables y precisos. Los portavoces de Google, Microsoft, OpenAI, Meta y Anthropic me dijeron que están trabajando activamente para prepararse para las elecciones, por ejemplo, filtrando las respuestas a las consultas relacionadas con las elecciones para incluir fuentes confiables. Las políticas de uso de OpenAI y Anthropic, al menos, prohíben el uso de sus productos para campañas políticas.

E incluso si muchas personas interactuaran con un chatbot intencionalmente engañoso, no está claro qué porcentaje confiaría en los resultados. encuesta Un estudio de febrero reveló que solo el 2 por ciento de los encuestados le había hecho una pregunta a ChatGPT sobre las elecciones presidenciales, y que solo el 12 por ciento de los encuestados tenía cierta o sustancial confianza en el chatbot de OpenAI para obtener información relacionada con las elecciones. “Es un porcentaje bastante pequeño del público que usa chatbots con fines electorales y que informa que creería en los resultados”, me dijo Josh Goldstein, investigador del Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown. Pero es probable que la cantidad de consultas relacionadas con las elecciones presidenciales haya aumentado desde febrero, e incluso si pocas personas recurren explícitamente a un chatbot de IA, robot conversacional En el caso de consultas políticas, las respuestas escritas por IA en un motor de búsqueda serán más omnipresentes.

Los temores previos de que la IA revolucionaría el panorama de la desinformación eran fuera de lugar En parte porque distribuir contenido falso es Más difícil que hacerloKapoor, de Princeton, me dijo: Una imagen mal editada con Photoshop que llega a millones de personas probablemente hacer mucho más daño que un deepfake fotorrealista visto por docenas. Nadie sabe aún cuáles serán los efectos de la IA política en el mundo real, dijo Kapoor. Pero hay motivos para el escepticismo: a pesar de años de promesas de las principales empresas tecnológicas de arreglar sus plataformas (y, más recientemente, sus modelos de IA), esos productos siguen difundir desinformación y hacer errores vergonzosos.

Un futuro en el que los chatbots de IA manipulen los recuerdos de muchas personas podría no parecer tan distinto del presente. Las poderosas empresas tecnológicas han determinado desde hace mucho tiempo qué es y qué no es un discurso aceptable mediante términos de servicio laberínticos, políticas de moderación de contenido opacas y algoritmos de recomendación. Ahora, las mismas empresas están dedicando recursos sin precedentes a una tecnología que es capaz de ahondar aún más en los procesos a través de los cuales los pensamientos entran, se forman y salen de la mente de las personas.

Fuente