Hombre que utilizó IA para crear imágenes de abuso infantil condenado a 18 años de cárcel en el Reino Unido

Manténgase informado con actualizaciones gratuitas

Un hombre que utilizó tecnología de inteligencia artificial para crear imágenes de abuso sexual infantil fue sentenciado el lunes a 18 años de prisión, en un proceso histórico sobre deepfakes en el Reino Unido.

Hugh Nelson, de 27 años, de Bolton, se declaró culpable de un total de 16 delitos de abuso sexual infantil, incluida la transformación de fotografías cotidianas de niños reales en material de abuso sexual utilizando herramientas de inteligencia artificial del proveedor de software estadounidense Daz 3D. También admitió alentar a otros a cometer delitos sexuales contra niños.

En el Tribunal de la Corona de Bolton, el juez Martin Walsh impuso una sentencia ampliada a Nelson, diciendo que representaba un “riesgo significativo” de causar daño al público. Eso significa que Nelson no será elegible para la libertad condicional hasta que haya completado dos tercios de su sentencia.

Los avances en IA significan imagenes falsas se han vuelto más realistas y más fáciles de crear, lo que llevó a los expertos a advertir sobre un aumento en las imágenes indecentes de niños generadas por computadora.

Jeanette Smith, fiscal de la Unidad de Abuso Sexual Infantil Organizado de la Fiscalía de la Corona, dijo que el caso de Nelson sentó un nuevo precedente sobre cómo las imágenes generadas por computadora y deepfakes indecentes y explícitos podría ser procesado.

“Este caso es uno de los primeros de su tipo, pero esperamos ver más a medida que evoluciona la tecnología”, dijo Smith.

La policía de Greater Manchester encontró imágenes reales de niños e imágenes generadas por computadora de abuso sexual infantil en los dispositivos de Nelson, que fueron incautados en junio pasado.

Las imágenes generadas por computadora no se parecían exactamente a fotografías reales, pero podrían clasificarse como “fotografías indecentes”, en lugar de “imágenes prohibidas”, que generalmente conllevan una pena menor. Esto fue posible, dijo Smith, porque los investigadores pudieron demostrar que se derivaron de imágenes de niños reales enviadas a Nelson.

Nelson admitió en agosto haber creado y vendido imágenes personalizadas de abuso sexual infantil adaptadas a las solicitudes específicas de los clientes. Generó modelos digitales de los niños utilizando fotografías reales que habían enviado sus clientes. La policía también dijo que distribuyó las imágenes que había creado en línea, tanto de forma gratuita como mediante pago.

Se produce cuando tanto la industria tecnológica como los reguladores están lidiando con los impactos sociales de gran alcance de la IA generativa. Empresas como Google, Meta y X han estado luchando por abordar los deepfakes en sus plataformas.

Graeme Biggar, director general de la Agencia Nacional contra el Crimen del Reino Unido, advirtió el año pasado que había comenzado a ver imágenes y vídeos hiperrealistas de abuso sexual infantil generados por IA.

Añadió que ver este tipo de material, ya sea real o generado por computadora, “aumenta materialmente el riesgo de que los delincuentes pasen a abusar sexualmente de los niños”.

El equipo especializado en investigación de abuso infantil en línea de la policía de Greater Manchester dijo que las imágenes generadas por computadora se habían convertido en una característica común de sus investigaciones.

“Este caso ha sido una verdadera prueba para la legislación, ya que el uso de programas informáticos de esta manera particular es muy nuevo para este tipo de delito y no se menciona específicamente en la legislación actual del Reino Unido”, dijo la detective Carly Baines cuando Nelson se declaró culpable del crimen. Agosto.

La Ley de Seguridad en Línea del Reino Unido, aprobada en octubre pasado, declara ilegal la difusión de deepfakes pornográficos no consensuados. Pero Nelson fue procesado bajo la ley vigente sobre abuso infantil.

Smith dijo que a medida que mejorara la generación de imágenes de IA, sería cada vez más difícil diferenciar entre diferentes tipos de imágenes. “Esa línea entre si es una fotografía o si es una imagen generada por computadora se difuminará”, dijo.

Díaz 3D, la empresa que creó el software utilizado por Nelson, dijo que su acuerdo de licencia de usuario “prohíbe su uso para la creación de imágenes que violen las leyes de pornografía infantil o explotación sexual infantil, o que de otro modo sean perjudiciales para menores” y dijo que “ comprometido a mejorar continuamente” su capacidad para impedir el uso de su software para tales fines.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here