Apple “claramente no denuncia” los abusos sexuales a menores, según organismos de control

Después de años de Controversias sobre los planes para escanear iCloud Para encontrar más materiales de abuso sexual infantil (CSAM), Apple abandonó esos planes el año pasado. Ahora, los expertos en seguridad infantil han acusado al gigante tecnológico no solo de no marcar el material de abuso sexual infantil intercambiado y almacenado en sus servicios (incluidos iCloud, iMessage y FaceTime), sino también de no informar sobre todo el material de abuso sexual infantil que se marca.

La Sociedad Nacional para la Prevención de la Crueldad contra los Niños (NSPCC) del Reino Unido compartió datos policiales del Reino Unido con El Guardián demostrando que Apple está “subestimando enormemente la frecuencia” en la que se encuentra CSAM a nivel mundial en sus servicios.

Según la NSPCC, la policía investigó más casos de abuso sexual infantil solo en el Reino Unido en 2023 que los que Apple informó a nivel mundial durante todo el año. Entre abril de 2022 y marzo de 2023 en Inglaterra y Gales, la NSPCC descubrió que “Apple estuvo implicada en 337 delitos registrados de imágenes de abuso infantil”. Pero en 2023, Apple solo reportado 267 casos de CSAM al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), supuestamente en representación de todo el CSAM en sus plataformas en todo el mundo, informó The Guardian.

Las grandes empresas tecnológicas de Estados Unidos deben informar al NCMEC sobre casos de abuso sexual infantil cuando los detecten, pero mientras que Apple informa de un par de cientos de casos de abuso sexual infantil al año, sus pares tecnológicos como Meta y Google informan de millones, según mostró el informe del NCMEC. Los expertos dijeron a The Guardian que existe la preocupación constante de que Apple “claramente” subestima el abuso sexual infantil en sus plataformas.

Richard Collard, director de políticas de seguridad infantil en línea de la NSPCC, dijo a The Guardian que cree que las iniciativas de seguridad infantil de Apple necesitan mejoras importantes.

“Existe una discrepancia preocupante entre la cantidad de delitos con imágenes de abuso infantil que se producen en los servicios de Apple en el Reino Unido y la cantidad casi insignificante de denuncias globales de contenido abusivo que hacen a las autoridades”, dijo Collard a The Guardian. “Apple está claramente por detrás de muchos de sus pares en la lucha contra el abuso sexual infantil, cuando todas las empresas tecnológicas deberían estar invirtiendo en seguridad y preparándose para la implementación de la Ley de Seguridad en Línea en el Reino Unido”.

Fuera del Reino Unido, otros expertos en seguridad infantil compartieron las preocupaciones de Collard. Sarah Gardner, directora ejecutiva de una organización de protección infantil con sede en Los Ángeles llamada Heat Initiative, dijo a The Guardian que considera que las plataformas de Apple son un “agujero negro” que oculta el abuso sexual infantil. Y espera que los esfuerzos de Apple por llevar la inteligencia artificial a sus plataformas intensifiquen el problema, lo que podría facilitar la propagación del abuso sexual infantil generado por inteligencia artificial en un entorno en el que los depredadores sexuales pueden esperar una aplicación menos estricta de la ley.

“Apple no detecta CSAM en la mayoría de sus entornos a gran escala, en absoluto”, dijo Gardner a The Guardian.

Gardner estuvo de acuerdo con Collard en que Apple “claramente no informa lo suficiente” y “no ha invertido en equipos de confianza y seguridad para poder manejar esto” mientras se apresura a incorporar funciones sofisticadas de inteligencia artificial a sus plataformas. El mes pasado, Apple ChatGPT integrado en Siri, iOS y Mac OSlo que quizás genere expectativas de que las funciones de inteligencia artificial generativa se mejoren continuamente y se promocionen en los futuros dispositivos de Apple.

“La empresa está avanzando hacia un territorio que sabemos que podría ser increíblemente perjudicial y peligroso para los niños sin el historial de poder manejarlo”, dijo Gardner a The Guardian.

Hasta el momento, Apple no ha hecho comentarios sobre el informe de la NSPCC. El pasado mes de septiembre, Apple respondió a las demandas de la Iniciativa Heat para detectar más CSAMdiciendo que en lugar de centrarse en escanear contenido ilegal, su enfoque está en conectar a los usuarios vulnerables o victimizados directamente con los recursos locales y las fuerzas del orden que pueden ayudarlos en sus comunidades.

Fuente