¿Pueden las grandes tecnológicas regularse en materia de pornografía vengativa y abuso sexual basado en imágenes?

Tu fuente confiable para contextualizar las noticias. Suscríbete a nuestro boletín diario.

La Casa Blanca explicó a principios de este mes cómo algunas empresas tecnológicas planean combatir el abuso sexual basado en imágenes, pero los expertos y los defensores de derechos humanos se muestran escépticos ante la autorregulación sin un mecanismo oficial de rendición de cuentas.

El anuncio, que coincidió con el 30º aniversario de la Ley de Violencia contra la Mujer, incluyó una serie de compromisos voluntarios para frenar la propagación del abuso sexual basado en imágenes, que incluye imágenes íntimas generadas o compartidas sin consentimiento, conocidas como “porno de venganza” o deepfakes explícitos.

Según Brandie Nonnecke, directora fundadora del Laboratorio de Políticas CITRIS de la Universidad de California, Berkeley, los compromisos voluntarios pueden ser una forma de que las empresas establezcan el examen que luego se les califica. Pero en este momento, los compromisos del sector privado y las órdenes ejecutivas son algunas de las herramientas más eficientes disponibles para combatir los daños facilitados por la tecnología. El Congreso no ha logrado aprobar políticas tecnológicas significativas en las últimas dos décadas, aunque recientemente ha habido un impulso en el Senado, particularmente en torno a los daños en línea.

La lucha contra el abuso sexual basado en imágenes puede atacar muchos puntos del ecosistema técnico. Los nombres de dominio pueden ser retenidos, los motores de búsqueda pueden suprimir los resultados de aplicaciones diseñadas para crear imágenes íntimas no consensuadas y los procesadores de pagos pueden negarse a ofrecer esas aplicaciones, según Nonnecke.

El corte de pagos ha Ha sido un método eficaz Para impulsar la acción, y en el anuncio de la Casa Blanca, tanto Cash App como Square dijeron que frenarían los pagos a empresas que alberguen o creen abusos sexuales basados ​​en imágenes.

El anuncio de la Casa Blanca es una continuación de un Llamado oficial a la acción En mayo, la industria y la sociedad civil buscan soluciones al abuso sexual basado en imágenes.

Algunas de las empresas tecnológicas más importantes reiteraron acciones que ya habían hecho públicas anteriormente. El anuncio volvió a compartir noticias de Google de que será ajustando su ranking de búsqueda para consultas relacionadas con deepfakes explícitos no consensuados. Meta, la empresa matriz de Facebook, Instagram y WhatsApp, citó su asociación con StopNCII, que se remonta a 2021y su herramienta, Take It Down, Lanzado en 2023Meta también señaló que en julio eliminó 63.000 cuentas de Instagram vinculadas a la sextorsión financiera.


Esta no es la primera vez que la Casa Blanca pide a las empresas tecnológicas que comprometerse a gestionar los riesgos El año pasado, empresas como Adobe, Amazon, Anthropic, Cohere, Google, Meta, Microsoft y OpenAI acordaron ocho compromisos relacionados con el desarrollo de sistemas de IA basados ​​en la seguridad, la protección y la confianza.

Un análisis un año después realizado por MIT Technology Review mostró un progreso significativo En muchos intentos de mitigar los daños de la IA, se ha avanzado menos en la transparencia. Existe una tendencia en la investigación sobre la seguridad de la IA a dedicar más recursos a amenazas hipotéticas, como los riesgos existenciales para la humanidad, que a los daños prácticos y visibles, como el abuso sexual basado en imágenes.

Microsoft fue objeto de un intenso escrutinio después de que su herramienta de generación de imágenes fuera… Se reveló que era la fuente de falsificaciones digitales sexualmente explícitas de Taylor Swift, que se volvieron virales en X en enero. X no fue mencionada en el resumen de la Casa Blanca, pero sí firmó “Principios para combatir el abuso sexual basado en imágenes” que se publicó el mismo día. Los principios fueron desarrollados por el Centro para la Democracia y la Tecnología, la Iniciativa de Derechos Civiles Cibernéticos y la Red Nacional para Poner Fin a la Violencia Doméstica.

La aceptación de estos actores importantes es útil, pero las aplicaciones especializadas de “desnudez” suelen ser las herramientas preferidas para realizar deepfakes sexualmente explícitos sin consentimiento. La Fiscalía de San Francisco anunció una demanda contra 16 de este tipo de aplicaciones en agosto.

Puede resultar difícil eliminar material inapropiado de los modelos de IA de código abierto porque han sido ampliamente copiados y compartidos. Una investigación del Observatorio de Internet de Stanford descubrió que uno de los conjuntos de datos de código abierto más grandes utilizados para entrenar la IA generativa Contenía miles de imágenes de material de abuso sexual infantil.. Mientras que el conjunto de datos fue derribadomuchas personas ya lo habían usado para entrenar modelos o lo habían descargado.

El anuncio de la Casa Blanca reveló que GitHub, un popular repositorio de código abierto que ahora es propiedad de Microsoft, actualizó sus políticas para prohibir el intercambio de herramientas de software destinadas a crear imágenes íntimas no consensuadas. Nuevamente, es una medida útil, pero no reduce la cantidad de herramientas que han estado en circulación durante años.

Mientras que proyectos de ley como el Ley DEFIANCEque busca crear un derecho de acción federal para que las víctimas de abuso sexual basado en imágenes demanden a los creadores, ha obtenido apoyo bipartidista, y centrarse exclusivamente en los perpetradores no puede ser la única solución.


Un alto funcionario de la administración dijo a The 19th que estas acciones de las empresas tecnológicas son un primer paso para abordar un problema complejo. También destacó la importancia de estos acuerdos públicos, ya que no todas las empresas que participaron en el anuncio han abordado públicamente cómo están trabajando para prevenir el abuso sexual basado en imágenes.

Al mismo tiempo, la administración Biden-Harris sigue pidiendo al Congreso que apruebe una legislación tecnológica que proteja a todos.

El estancamiento en materia de políticas tecnológicas se debe a varios factores. Las grandes empresas tecnológicas tienen amplias operaciones de lobby para oponerse a la regulación, y existe una tensión entre regular para compensar los daños y al mismo tiempo dejar espacio para la innovación.

La elaboración de políticas también es complicada, ya que “existe mucha confusión sobre la terminología y sobre cómo garantizar que la legislación tenga el alcance adecuado”, dijo Nonnecke. Puede resultar difícil asegurarse de que las leyes apunten correctamente a los daños que pretenden abordar, y luego recae la responsabilidad del sector privado de implementar soluciones técnicas.

Muchas veces, las empresas tecnológicas se adhieren a las regulaciones a través de Cumplimiento excesivo o cortando completamente el acceso a su productoNonnecke dijo que está interesada en cómo Adobe, Anthropic, Cohere, Microsoft y OpenAI implementarán la eliminación de imágenes de desnudos específicamente inapropiadas, ya que es difícil eliminar el abuso sexual dañino basado en imágenes y aún así permitir contenido de valor científico o artístico entre modelos que constantemente rastrean la web en busca de datos de entrenamiento.


Los críticos de los compromisos voluntarios tienen muchos ejemplos que fundamentan su escepticismo.

“Las grandes empresas tecnológicas llevan una década decididamente a ser buenas en lo que respecta al abuso sexual basado en imágenes. Sin embargo, plataformas como Instagram, Facebook, Google y Snap son las principales culpables de la difusión de (material de abuso sexual infantil), imágenes de desnudos no consentidos y sextorsión”, escribió por correo electrónico Carrie Goldberg, socia de CA Goldberg, PLLC, que se especializa en representar a víctimas de abuso facilitado por la tecnología. “La cantidad de sufrimiento que estas empresas han causado en la última década debido al contenido abusivo que prolifera en sus plataformas es incomprensible”.

Arielle Geismar, copresidenta de la campaña Design It For Us, liderada por jóvenes, dijo que el hecho de que la Casa Blanca haya puesto a estas empresas en la mesa de negociaciones es un paso en la dirección correcta. “Francamente, me hubiera encantado ver que llegaran a la conclusión por sí solas, pero creo que está bastante claro que estas empresas tecnológicas no son capaces de regularse por sí mismas”, dijo.

Una fila de personas se encuentra detrás de una persona en un podio frente al Capitolio de los EE. UU., todas con carteles que dicen “Protejamos a los niños en línea” o “Diséñemoslo para nosotros”.
Arielle Geismar habla durante una manifestación organizada por Accountable Tech y Design It For Us en Washington, DC, en enero. Geismar se sintió frustrada al ver a los directores de Discord, Meta, TikTok, Snap y X refutar las afirmaciones en una audiencia del Senado sobre cómo sus productos afectan la salud mental de los adolescentes a pesar de la evidencia de lo contrario.
(Jemal Condesa/Getty Images)

Geismar citó la vehemente reacción de Meta contra la denunciante Frances Haugen, quien documentos compartidos Demostrando que la empresa sabía que sus productos tenían un impacto negativo en la salud mental de las adolescentes. Haugen es asesora de Design It For Us.

“Hemos visto una y otra vez que priorizan sus resultados finales y las cosas que generan dinero”, dijo Geismar.

Geismar estuvo entre el público en la Audiencia Judicial del Senado en enero, donde los jefes de Discord, Meta, TikTok, Snap y X enfrentaron una serie de agotadores interrogatorios sobre la seguridad de los niños en sus respectivas plataformas. Geismar dijo que se sentía como si la estuvieran engañando cuando las empresas hablaban sobre cómo no había ningún vínculo entre sus plataformas y la salud mental de los jóvenes. Ver contenido en Instagram que glorificaba los trastornos alimentarios cuando era adolescente la afectó mucho.

La organización sin fines de lucro Accountable Tech ha publicado varios informes que muestran que las grandes empresas tecnológicas no necesariamente cumplen las promesas sobre privacidad y seguridad que hacen en sus comunicados de prensa. Su investigación mostró que Google estaba Conservación de datos de ubicación sobre visitas a clínicas de aborto a pesar de decir que esa información sería eliminada.

Por ello, Nicole Gill, cofundadora y directora ejecutiva de Accountable Tech, se toma estos compromisos voluntarios “con mucha cautela”. Señaló que no existe ningún mecanismo de cumplimiento y que hay pocos recursos dedicados a hacer un seguimiento de estos compromisos.

Según Gill, simplemente no existen estructuras de incentivos externos para priorizar la mitigación de daños como el abuso sexual basado en imágenes. Las empresas compiten principalmente entre sí.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here