Las imágenes de abuso sexual infantil generadas por IA están inundando la Web

Desde hace años, la IA generativa se ha utilizado para evocar todo tipo de realidades: pinturas deslumbrantes y animaciones sorprendentes de mundos y personas, tanto reales como imaginarias. Este poder ha traído consigo un tremendo lado oscuro con el que muchos expertos recién ahora están comenzando a lidiar: la IA se está utilizando para crear imágenes y videos de niños sexualmente explícitos y no consensuados. Y no sólo en un puñado de casos: tal vez millones de niños en todo el país se hayan visto afectados de alguna manera por el surgimiento de esta tecnología, ya sea directamente victimizados o informados de otros estudiantes que lo han sido.

Esta mañana, el Centro para la Democracia y la Tecnología, una organización sin fines de lucro que aboga por los derechos digitales y la privacidad, publicó un informe sobre la alarmante prevalencia de imágenes íntimas no consensuadas (o NCII) en las escuelas estadounidenses. En el último año escolar, según la encuesta del centro, el 15 por ciento de los estudiantes de secundaria informaron haber oído hablar de una “deepfake” (o imagen generada por IA) que mostraba a alguien asociado con su escuela de una manera sexualmente explícita o íntima. Las herramientas de IA generativa han “aumentado la superficie para que los estudiantes se conviertan en víctimas y en perpetradores”, me dijo Elizabeth Laird, coautora del informe y directora de equidad en tecnología cívica de CDT. En otras palabras, cualquier otra cosa para la que la IA generativa sea buena: agilizar tareas rutinarias, descubrir nuevas drogas, suplantar el arte humano, atraer cientos de miles de millones de dólares en inversiones: la tecnología ha hecho que violar a los niños sea mucho más fácil.

El informe de hoy se suma a varios otros que documentan la alarmante prevalencia de NCII generadas por IA. En agosto, Thorn, una organización sin fines de lucro que monitorea y combate la difusión de material de abuso sexual infantil (CSAM), publicó un informe descubriendo que el 11 por ciento de los niños estadounidenses de entre 9 y 17 años conocen a un compañero que ha utilizado IA para generar imágenes de desnudos de otros niños. Un instituto de las Naciones Unidas para el crimen internacional fue recientemente coautor de un informe señalando el uso de CSAM generado por IA para preparar a menores y descubriendo que, en una encuesta global reciente sobre las fuerzas del orden, más del 50 por ciento había encontrado CSAM generado por IA.

Aunque el número de oficial Los informes relacionados con CSAM generados por IA son relativamente pequeños: aproximadamente 5.000 propinas en 2023 al Centro Nacional para Niños Desaparecidos y Explotados, en comparación con decenas de millones de informes sobre otras imágenes abusivas que involucran a niños ese mismo año; esas cifras posiblemente fueron subestimadas y han ido aumentando. Ahora es probable que “se generen miles de imágenes nuevas (CSAM) al día”, me dijo David Thiel, que estudia CSAM generado por IA en Stanford. Este verano, la Internet Watch Foundation, con sede en el Reino Unido, encontró que en un lapso de un mes en la primavera, se cargaron más de 3.500 ejemplos de CSAM generados por IA en un solo foro de la web oscura, un aumento con respecto a los 2.978 cargados durante el septiembre anterior.

Informes generales que involucran o sospechan CSAM han estado aumentando durante años. Las herramientas de inteligencia artificial han llegado en medio de una “tormenta perfecta”, me dijo Sophie Maddocks, que estudia el abuso sexual basado en imágenes y es directora de investigación y extensión del Centro para Medios en Riesgo de la Universidad de Pensilvania. El auge de las plataformas de redes sociales, las aplicaciones de mensajería cifrada y los generadores de imágenes y vídeos accesibles con IA han facilitado la creación y circulación de material explícito y no consensuado en una Internet que permite, e incluso alienta, ese comportamiento. El resultado es una “especie general de explosión exponencial extrema” de imágenes de abuso sexual generadas por IA, dijo Maddocks.

Vigilar todo esto es un gran desafío. La mayoría de las personas utilizan aplicaciones sociales y de mensajería cifrada (que incluyen iMessage en el iPhone y WhatsApp) por razones completamente anodinas. De manera similar, las herramientas de inteligencia artificial, como las aplicaciones de intercambio de rostros, pueden tener un valor creativo y de entretenimiento legítimo, incluso si también se puede abusar de ellas. Mientras tanto, los programas de IA generativa de código abierto, algunos de los cuales pueden tener imágenes sexualmente explícitas y incluso CSAM en sus datos de entrenamiento, son fáciles de descargar y usar. Generar una imagen falsa y sexualmente explícita de casi cualquier persona es “más barato y más fácil que nunca”, me dijo Alexandra Givens, presidenta y directora ejecutiva de CDT. Al menos entre los escolares estadounidenses, las víctimas tienden a ser mujeres, según la encuesta del CDT.

Las empresas de tecnología tienen formas de detectar y detener la propagación del CSAM convencional, pero la IA las elude fácilmente. Una de las principales formas en que las empresas de tecnología y las fuerzas del orden como Meta pueden detectar y eliminar CSAM es mediante el uso de una base de datos de códigos digitales, una especie de huella digital visual, que corresponde a cada imagen de abuso que los investigadores conocen en la red. web, me dijo Rebecca Portnoff, jefa de ciencia de datos de Thorn. Estos códigos, conocidos como “hashes”, se crean automáticamente creado y cruzado para que los humanos no tengan que revisar cada imagen potencialmente abusiva. Esto ha funcionado hasta ahora porque gran parte del CSAM convencional consiste en imágenes recirculadas, dijo Thiel. Pero la facilidad con la que ahora las personas pueden generar imágenes abusivas, ligeramente alteradas o totalmente inventadas, podría superar rápidamente este enfoque: incluso si las agencias policiales pudieran agregar 5.000 casos de CSAM generados por IA a la lista cada día, dijo Thiel, 5.000 nuevos unos existirían el siguiente.

En teoría, la IA podría ofrecer su propio tipo de solución a este problema. Los modelos podrían entrenarse para detectar imágenes explícitas o abusivas, por ejemplo. espina tiene desarrollado Modelos de aprendizaje automático que pueden detectar CSAM desconocido. Pero diseñar tales programas es difícil debido a los datos confidenciales de capacitación que se requieren. “En el caso de imágenes íntimas, es complicado”, dijo Givens. “Para imágenes que involucran a niños, es ilegal”. Entrenar una imagen para clasificar CSAM implica adquirir CSAM, lo cual es un delito, o trabajar con una organización que esté legalmente autorizada para almacenar y manejar dichas imágenes.

“No existen soluciones mágicas en este ámbito”, dijo Portnoff, “y para que sea eficaz, realmente será necesario tener intervenciones estratificadas a lo largo de todo el ciclo de vida de la IA”. Eso probablemente requerirá una acción significativa y coordinada por parte de las empresas de inteligencia artificial, las plataformas de computación en la nube, los gigantes de las redes sociales, los investigadores, los funcionarios encargados de hacer cumplir la ley, las escuelas y más, lo que podría tardar en concretarse. Incluso entonces, alguien que ya haya descargado un modelo de IA de código abierto podría, en teoría, generar CSAM sin fin y utilizar esas imágenes sintéticas para entrenar nuevos programas de IA abusivos.

Aun así, los expertos con los que hablé no eran fatalistas. “Todavía veo esa ventana de oportunidad” para evitar que suceda lo peor, dijo Portnoff. “Pero tenemos que aprovecharlo antes de que lo perdamos”. Existe una creciente conciencia y compromiso para prevenir la propagación del CSAM sintético. Después de que Thiel encontró CSAM en uno de los conjuntos de datos de imágenes disponibles públicamente más grandes utilizados para entrenar modelos de IA, el conjunto de datos fue eliminado; fue recientemente recargado sin ningún contenido abusivo. En mayo, la Casa Blanca emitió un llamado a la acción para combatir el CSAM a las empresas de tecnología y la sociedad civil, y este verano, las principales empresas de inteligencia artificial, incluidas OpenAI, Google, Meta y Microsoft. acordado a un conjunto de principios de diseño voluntarios que Thorn desarrolló para evitar que sus productos generen CSAM. Hace dos semanas, la Casa Blanca anunciado Otro conjunto de compromisos voluntarios para luchar contra el CSAM sintético de varias empresas tecnológicas importantes. Portnoff me dijo que, si bien siempre piensa que “podemos avanzar más rápido”, este tipo de compromisos “alentan el progreso”.

Las empresas tecnológicas, por supuesto, son sólo una parte de la ecuación. Las escuelas también tienen una responsabilidad como lugares frecuentes de daño, aunque Laird me dijo que, según los resultados de la encuesta del CDT, lamentablemente no están preparadas para esta crisis. En la encuesta de CDT, menos del 20 por ciento de los estudiantes de secundaria dijeron que su escuela había explicado qué es el NCII deepfake, y aún menos dijeron que la escuela había explicado cómo compartir tales imágenes es dañino o dónde reportarlas. La mayoría de los padres encuestados dijeron que la escuela de sus hijos no había proporcionado ninguna orientación relacionada con el NCII auténtico o generado por IA. Entre los profesores que habían oído hablar de un incidente de abuso sexual con deepfake, menos del 40 por ciento informaron que su escuela había actualizado sus políticas de acoso sexual para incluir imágenes sintéticas. Los procedimientos que existen tienden a centrarse en castigar a los estudiantes sin necesariamente tener en cuenta el hecho de que muchos adolescentes pueden no comprender completamente que están dañando a alguien cuando crean o comparten dicho material. “Esto va al núcleo de lo que las escuelas deben hacer”, dijo Laird, “que es crear un lugar seguro para que todos los estudiantes aprendan y prosperen”.

Las imágenes sintéticas de abuso sexual son un problema nuevo, pero que los gobiernos, los medios de comunicación, las empresas y los grupos de la sociedad civil deberían haber comenzado a considerar y trabajar para prevenir hace años, cuando comenzó el pánico a los deepfake a fines de la década de 2010. En aquel entonces, muchos expertos se centraban en algo completamente distinto: la desinformación política generada por la IA, cuyo miedo generó advertencias gubernamentales, audiencias, proyectos de ley e industrias enteras que siguen funcionando hasta el día de hoy.

Mientras tanto, la tecnología tenía el potencial de transformar la creación y la naturaleza de imágenes de abuso sexual. Ya en 2019, el seguimiento en línea encontró que el 96 por ciento de los videos deepfake eran pornografía no consentida. Los defensores lo señalaron, pero se ahogaron. fuera por miedos de campañas de desinformación sobre IA devastadoras a nivel nacional y geopolítico que aún no se han materializado. Los deepfakes políticos amenazaban con hacer imposible creer lo que ves, me dijo Maddocks. Pero en el caso de las víctimas de agresión y acoso sexual, “de todos modos, la gente no cree lo que ve”, dijo. “¿Cuántas víctimas de violación se necesitan para que la gente se dé cuenta de lo que hizo el violador?” Esta crisis de los deepfake siempre ha sido real y tangible, y ahora es imposible ignorarla. Con suerte, no es demasiado tarde para hacer algo al respecto.

Fuente