Ya es bastante problemático que algunos niños envíen fotos de ellos desnudos a sus amigos e incluso a desconocidos en Internet, pero la inteligencia artificial ha elevado el problema a un nivel completamente nuevo.
Según un nuevo informe de Thorn, aproximadamente 1 de cada 10 niños afirma que sus amigos o compañeros han utilizado inteligencia artificial generativa para crear desnudos de otros niños. La organización sin fines de lucro, que lucha contra el abuso sexual infantil, encuestó a más de 1000 niños de entre 9 y 17 años a fines de 2023 para su encuesta anual.
Thorn descubrió que el 12% de los niños de entre 9 y 12 años conocían a amigos o compañeros de clase que habían utilizado IA para crear desnudos de sus compañeros, y el 8% prefirió no responder a la pregunta. En el caso de los jóvenes de entre 13 y 17 años encuestados, el 10% dijo que conocía a compañeros que habían utilizado IA para generar desnudos de otros niños, y el 11% prefirió no responder. Esta fue la primera encuesta de Thorn en la que se preguntó a los niños sobre el uso de IA generativa para crear desnudos falsos.
“Si bien la motivación detrás de estos eventos es más probablemente impulsada por la mala conducta de los adolescentes que por una intención de abusar sexualmente, los daños resultantes a las víctimas son reales y no deben minimizarse en un intento de eludir la responsabilidad”, señala el informe de Thorn.
La cultura del sexting es bastante difícil de abordar sin añadir inteligencia artificial a la mezcla. Thorn descubrió que el 25% de los menores considera “normal” compartir desnudos de sí mismos (una ligera disminución con respecto a las encuestas que se remontan a 2019), y el 13% de los encuestados afirmó haberlo hecho ya en algún momento, una ligera disminución con respecto a 2022.
La organización sin fines de lucro dice que compartir fotos de desnudos puede conducir a sextorsióno malos actores que usan fotos de desnudos para chantaje o explotación El remitente. Quienes habían considerado compartir desnudos identificaron filtraciones o explotación como una razón por la que finalmente decidieron no hacerlo.
Este año, por primera vez, Thorn preguntó a los jóvenes sobre el pago que recibían por enviar fotografías de desnudos, y el 13% de los niños encuestados dijeron que conocían a un amigo que había recibido una compensación por sus desnudos, mientras que el 7% no respondió.
Los niños quieren que las empresas de redes sociales les ayuden
La IA generativa permite la creación de “imágenes de abuso altamente realistas a partir de fuentes benignas, como fotos escolares y publicaciones en redes sociales”, según el informe de Thorn. Como resultado, las víctimas que pueden haber denunciado previamente un incidente a las autoridades pueden volver a ser fácilmente victimizadas con material abusivo nuevo y personalizado. Por ejemplo, la actriz Jenna Ortega informó recientemente que le enviaron Desnudos de ella misma cuando era niña generados por IA en X, anteriormente Twitter. Optó por eliminar su cuenta por completo.
No está muy lejos de cómo lo hacen la mayoría de los niños. reaccionar en situaciones similares, informó Thorn.
La organización sin fines de lucro descubrió que los niños, un tercio de los cuales han tenido algún tipo de interacción sexual en línea, “Prefiero consistentemente las herramientas de seguridad en línea a las redes de apoyo fuera de línea, como familiares o amigos”.
Los niños a menudo simplemente bloquean a los malos actores en las redes sociales en lugar de denunciarlos a la plataforma de redes sociales o a un adulto.
Thorn descubrió que los niños quieren estar informados sobre “cómo aprovechar mejor las herramientas de seguridad en línea para defenderse de tales amenazas”, que perciben como normales y poco destacables en la era de las redes sociales.
“Los jóvenes nos muestran que estas son las herramientas preferidas en su kit de seguridad en línea y buscan más información en las plataformas sobre cómo usarlas. Existe una clara oportunidad de apoyar mejor a los jóvenes a través de estos mecanismos”, afirma el análisis de Thorn.
Además de querer información y tutoriales sobre cómo bloquear y denunciar a alguien, más de un tercio de los encuestados dijeron que querían que las aplicaciones se comunicaran con los usuarios para ver qué tan seguros se sienten, y un número similar dijo que querían que la plataforma ofreciera apoyo o asesoramiento después de una mala experiencia.