Investigadores afirman que se eliminaron imágenes de abuso infantil de la fuente de entrenamiento del generador de imágenes de IA

Investigadores de inteligencia artificial dijeron el viernes que han eliminado más de 2.000 enlaces web a imágenes sospechosas de abuso sexual infantil de un conjunto de datos utilizado para entrenar herramientas populares de generación de imágenes de IA.

El conjunto de datos de investigación LAION es un enorme índice de imágenes y subtítulos en línea que ha sido una fuente para los principales creadores de imágenes de IA, como Stable Diffusion y Midjourney.

Pero un informe del año pasado El Observatorio de Internet de Stanford descubrió que contenía enlaces a imágenes sexualmente explícitas de niños, lo que contribuye a la facilidad con la que algunas herramientas de IA han podido producir deepfakes fotorrealistas que representan a niños.

Ese informe de diciembre llevó a LAION, que es la red abierta sin fines de lucro Large-scale Artificial Intelligence Open Network, a eliminar de inmediato su conjunto de datos. Ocho meses después, LAION dijo en una publicación de blog que trabajó con el grupo de vigilancia de la Universidad de Stanford y organizaciones contra el abuso en Canadá y el Reino Unido para solucionar el problema y publicar un conjunto de datos depurado para futuras investigaciones sobre IA.

David Thiel, investigador de Stanford y autor del informe de diciembre, elogió a LAION por las mejoras significativas, pero dijo que el próximo paso es retirar de la distribución los “modelos contaminados” que aún pueden producir imágenes de abuso infantil.

Una de las herramientas basadas en LAION que Stanford identificó como el “modelo más popular para generar imágenes explícitas” (una versión más antigua y ligeramente filtrada de Stable Diffusion) siguió siendo fácilmente accesible hasta el jueves, cuando la empresa Runway ML, con sede en Nueva York, la eliminó del repositorio de modelos de IA Hugging Face. Runway dijo en un comunicado el viernes que se trataba de una “desutilización planificada de modelos de investigación y código que no se han mantenido activamente”.

La versión limpiada del conjunto de datos de LAION llega mientras los gobiernos de todo el mundo están analizando más de cerca cómo se utilizan algunas herramientas tecnológicas para crear o distribuir imágenes ilegales de niños.

El fiscal de la ciudad de San Francisco presentó a principios de este mes una demanda para cerrar un grupo de sitios web que permiten la creación de desnudos de mujeres y niñas generados por IA. La supuesta distribución de imágenes de abuso sexual infantil en la aplicación de mensajería Telegram es parte de lo que Lideró francés Las autoridades presentarán cargos el miércoles contra el fundador y CEO de la plataforma, Pavel Durov.

El arresto de Durov “señala un gran cambio en toda la industria tecnológica, ya que los fundadores de estas plataformas pueden ser considerados personalmente responsables”, dijo David Evan Harris, investigador de la Universidad de California en Berkeley, quien recientemente se puso en contacto con Runway para preguntar por qué el problemático generador de imágenes de IA todavía estaba accesible al público. Fue eliminado días después.

Fuente