Se están difundiendo imágenes de abuso sexual infantil generadas por IA. Las autoridades se apresuran a detenerlos

WASHINGTON– Un psiquiatra infantil que alteró una foto del primer día de clases que vio en Facebook para que un grupo de niñas apareciera desnuda. Un soldado del ejército estadounidense acusado de crear imágenes que mostraban a niños que conocía siendo abusados ​​sexualmente. Un ingeniero de software encargado de generar imágenes hiperrealistas y sexualmente explícitas de niños.

Los organismos encargados de hacer cumplir la ley en todo Estados Unidos están tomando medidas enérgicas contra una Preocupante difusión de imágenes de abuso sexual infantil creados a través de tecnología de inteligencia artificial, desde fotografías manipuladas de niños reales hasta representaciones gráficas de niños generadas por computadora. Los funcionarios del Departamento de Justicia dicen que están persiguiendo agresivamente a los delincuentes que explotan las herramientas de inteligencia artificial, mientras los estados están compitiendo para garantizar que las personas que generan “deepfakes” y otras imágenes dañinas de niños puedan ser procesadas según sus leyes.

“Tenemos que señalar tempranamente y con frecuencia que se trata de un delito, que será investigado y procesado cuando la evidencia lo respalde”, dijo Steven Grocki, quien dirige la Sección de Explotación Infantil y Obscenidad del Departamento de Justicia, en una entrevista con The Prensa asociada. “Y si estás ahí sentado pensando lo contrario, fundamentalmente estás equivocado. Y es sólo cuestión de tiempo antes de que alguien te haga responsable”.

El Departamento de Justicia dice que las leyes federales existentes se aplican claramente a dicho contenido, y recientemente presentó lo que se cree que es el primer caso federal que involucra imágenes puramente generadas por IA, lo que significa que los niños representados no son reales sino virtuales. En otro caso, las autoridades federales arrestaron en agosto a un soldado estadounidense estacionado en Alaska acusado de publicar fotografías inocentes de niños reales que conocía a través de un chatbot de inteligencia artificial para hacer que las imágenes fueran sexualmente explícitas.

Los procesamientos se producen mientras los defensores de los niños están trabajando urgentemente para frenar el uso indebido de la tecnología para evitar una avalancha de imágenes perturbadoras que los funcionarios temen puedan dificultar el rescate de víctimas reales. Los funcionarios encargados de hacer cumplir la ley temen que los investigadores pierdan tiempo y recursos tratando de identificar y localizar a niños explotados que en realidad no existen.

Mientras tanto, los legisladores están aprobando una serie de leyes para garantizar que los fiscales locales puedan presentar cargos conforme a las leyes estatales por “deepfakes” generados por IA y otras imágenes sexualmente explícitas de niños. Los gobernadores de más de una docena de estados han firmado leyes este año para tomar medidas enérgicas contra las imágenes de abuso sexual infantil creadas o alteradas digitalmente, según una revisión del Centro Nacional de Desaparecidos. & Niños explotados.

“Estamos tratando de ponernos al día como fuerzas del orden con una tecnología que, francamente, se está moviendo mucho más rápido que nosotros”, dijo el fiscal de distrito del condado de Ventura, California, Erik Nasarenko.

Nasarenko impulsó la legislación firmado el mes pasado por el gobernador Gavin Newsom, que deja claro que el material de abuso sexual infantil generado por IA es ilegal según la ley de California. Nasarenko dijo que su oficina no pudo procesar ocho casos que involucraban contenido generado por IA entre diciembre pasado y mediados de septiembre porque la ley de California había requerido que los fiscales probaran que las imágenes representaban a un niño real.

Las imágenes de abuso sexual infantil generadas por IA se pueden utilizar para preparar a los niños, dicen los funcionarios encargados de hacer cumplir la ley. E incluso si no sufren abuso físico, los niños pueden verse profundamente afectados cuando su imagen se transforma para parecer sexualmente explícita.

“Sentí que me habían quitado una parte de mí. Aunque no fui violada físicamente”, dijo Kaylin Hayman, de 17 años, quien protagonizó el programa de Disney Channel “Just Roll with It” y ayudó a impulsar el proyecto de ley de California después de convertirse en víctima de imágenes “deepfake”.

Hayman testificó el año pasado en el juicio federal del hombre que superpuso digitalmente su rostro y el de otros niños actores en cuerpos que realizaban actos sexuales. En mayo fue condenado a más de 14 años de prisión.

Se sabe que los delincuentes prefieren los modelos de inteligencia artificial de código abierto que los usuarios pueden descargar en sus computadoras, quienes pueden entrenar o modificar aún más las herramientas para producir representaciones explícitas de niños, dicen los expertos. Los abusadores intercambian consejos en comunidades de la web oscura sobre cómo manipular herramientas de inteligencia artificial para crear dicho contenido, dicen los funcionarios.

Un informe el año pasado. por el Observatorio de Internet de Stanford descubrió que un conjunto de datos de investigación que fue la fuente para los principales creadores de imágenes de IA, como Stable Diffusion, contenía enlaces a imágenes sexualmente explícitas de niños, lo que contribuyó a la facilidad con la que algunas herramientas han podido producir imágenes dañinas. El conjunto de datos fue eliminado y los investigadores dijeron más tarde ellos borraron Más de 2.000 enlaces web a imágenes sospechosas de abuso sexual infantil.

Las principales empresas de tecnología, incluidas Google, OpenAI y Stability AI, han acordado trabajar con la organización contra el abuso sexual infantil Thorn. para combatir la propagación de imágenes de abuso sexual infantil.

Pero los expertos dicen que se debería haber hecho más desde el principio para evitar el uso indebido antes de que la tecnología estuviera ampliamente disponible. Y las medidas que las empresas están tomando ahora para dificultar el abuso de versiones futuras de herramientas de inteligencia artificial “harán poco para evitar” que los infractores ejecuten versiones anteriores de modelos en sus computadoras “sin ser detectados”, señaló un fiscal del Departamento de Justicia en documentos judiciales recientes.

“No se dedicó tiempo a hacer que los productos fueran seguros, en lugar de eficientes, y es muy difícil hacerlo después del hecho, como hemos visto”, dijo David Thiel, tecnólogo jefe del Observatorio de Internet de Stanford.

El Centro Nacional de Desaparecidos & El año pasado, Exploited Children's CyberTipline recibió alrededor de 4.700 informes de contenido que involucraba tecnología de inteligencia artificial, una pequeña fracción de los más de 36 millones de informes totales de sospecha de explotación sexual infantil. En octubre de este año, el grupo estaba recibiendo alrededor de 450 informes por mes de contenido relacionado con IA, dijo Yiota Souras, directora legal del grupo.

Sin embargo, esas cifras pueden ser insuficientes, ya que las imágenes son tan realistas que a menudo es difícil saber si fueron generadas por IA, dicen los expertos.

“Los investigadores pasan horas tratando de determinar si una imagen realmente representa a un menor real o si está generada por IA”, dijo Rikole Kelly, fiscal adjunta del condado de Ventura, quien ayudó a redactar el proyecto de ley de California. “Antes había algunos indicadores realmente claros… con los avances en la tecnología de inteligencia artificial, ese ya no es el caso”.

Los funcionarios del Departamento de Justicia dicen que ya cuentan con las herramientas previstas por la ley federal para perseguir a los infractores por ese tipo de imágenes.

La Corte Suprema de Estados Unidos en 2002 anuló una prohibición federal sobre material virtual de abuso sexual infantil. Pero una ley federal firmada el año siguiente prohíbe la producción de representaciones visuales, incluidos dibujos, de niños involucrados en conductas sexualmente explícitas que se consideren “obscenas”. Esa ley, que según el Departamento de Justicia se ha utilizado en el pasado para acusar imágenes de dibujos animados de abuso sexual infantil, señala específicamente que no existe ningún requisito “de que el menor representado realmente exista”.

El Departamento de Justicia presentó ese cargo en mayo contra un ingeniero de software de Wisconsin acusado de utilizar la herramienta de inteligencia artificial Stable Diffusion para crear imágenes fotorrealistas de niños involucrados en conductas sexualmente explícitas, y fue capturado después de que envió algunas a un niño de 15 años a través de un enlace directo. mensaje en Instagram, dicen las autoridades. El abogado del hombre, que está presionando para que se desestimen los cargos basándose en la Primera Enmienda, declinó hacer más comentarios sobre las acusaciones en un correo electrónico a la AP.

Un portavoz de Stability AI dijo que el hombre está acusado de utilizar una versión anterior de la herramienta lanzada por otra empresa, Runway ML. Stability AI dice que ha “invertido en funciones proactivas para evitar el uso indebido de la IA para la producción de contenido dañino” desde que asumió el desarrollo exclusivo de los modelos. Un portavoz de Runway ML no respondió de inmediato a una solicitud de comentarios de la AP.

En los casos que involucran “deepfakes”, cuando la foto de un niño real ha sido alterada digitalmente para hacerla sexualmente explícita, el Departamento de Justicia está presentando cargos bajo la ley federal de “pornografía infantil”. En un caso, un psiquiatra infantil de Carolina del Norte que usó una IA Una aplicación para “desvestir” digitalmente a niñas que posaban el primer día de clases en una foto de hace décadas compartida en Facebook fue declarada culpable de cargos federales el año pasado.

“Estas leyes existen. Serán utilizados. Tenemos la voluntad. Tenemos los recursos”, dijo Grocki. “Esta no será una prioridad baja que ignoraremos porque no hay un niño involucrado”.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here