Acusan a Apple de no informar sobre casos sospechosos de abuso sexual infantil en sus plataformas

Ha sido acusado de no informar adecuadamente sobre la prevalencia de material de abuso sexual infantil () en sus plataformas. La Sociedad Nacional para la Prevención de la Crueldad contra los Niños (NSPCC), una organización benéfica de protección infantil del Reino Unido, afirma que Apple informó solo 267 casos en todo el mundo de presunto abuso sexual infantil al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) el año pasado.

Eso palidece en comparación con los 1,47 millones de casos potenciales que informó Google y los 30,6 millones de informes de Meta. Otras plataformas que informaron más casos potenciales de abuso sexual infantil que Apple en 2023 incluyen TikTok (590.376), X (597.087), Snapchat (713.055), Xbox (1.537) y PlayStation/Sony Interactive Entertainment (3.974). Todas las empresas tecnológicas con sede en EE. UU. deben comunicar cualquier posible caso de abuso sexual infantil detectado en sus plataformas al NCMEC, que dirige los casos a las agencias policiales pertinentes en todo el mundo.

La NSPCC también afirmó que Apple estuvo implicada en más casos de abuso sexual infantil (337) en Inglaterra y Gales entre abril de 2022 y marzo de 2023 de los que informó en todo el mundo en un año. La organización benéfica utilizó solicitudes de libertad de información para recopilar esos datos de las fuerzas policiales.

Como que fue el primero en informar sobre la denuncia de la NSPCC, señala que los servicios de Apple como iMessage, FaceTime e iCloud tienen cifrado de extremo a extremo, lo que impide que la empresa vea el contenido de lo que los usuarios comparten en ellos. Sin embargo, WhatsApp tiene También E2EEy ese servicio informó casi 1,4 millones de casos sospechosos de abuso sexual infantil al NCMEC en 2023.

“Existe una discrepancia preocupante entre la cantidad de delitos con imágenes de abuso infantil que se producen en los servicios de Apple en el Reino Unido y la cantidad casi insignificante de informes globales de contenido abusivo que hacen a las autoridades”, dijo Richard Collard, director de política de seguridad infantil en línea de la NSPCC. “Apple está claramente por detrás de muchos de sus pares en la lucha contra el abuso sexual infantil cuando todas las empresas tecnológicas deberían estar invirtiendo en seguridad y preparándose para la implementación de la nueva norma”. Ley de seguridad en línea en el Reino Unido.”

En 2021, Apple implementar un sistema que escanearía las imágenes antes de que se subieran a iCloud y las compararía con una base de datos de imágenes CSAM conocidas del NCMEC y otras organizaciones. Pero después De los defensores de la privacidad y los derechos digitales, Apple de sus herramientas de detección de CSAM antes de que finalmente .

Apple se negó a hacer comentarios sobre la acusación de la NSPCC y, en cambio, señaló El guardián Apple dijo que optó por una estrategia diferente que “prioriza la seguridad y privacidad de (sus) usuarios”. en agosto de 2022 que “los niños pueden estar protegidos sin que las empresas examinen los datos personales”.

Fuente