Meta, Snapchat y TikTok finalmente se están uniendo para hacer algo respecto de los efectos nocivos de algunos de los contenidos alojados en sus plataformas, y ya era hora.
En asociación con la Coalición de Salud MentalLas tres marcas están utilizando un programa llamado Thrive, que está diseñado para marcar y compartir de forma segura información sobre contenido dañino, enfocándose en contenido relacionado con el suicidio y la autolesión.
A Entrada de blog meta dice: “Al igual que muchos otros tipos de contenido potencialmente problemático, el contenido sobre suicidio y autolesión no se limita a una sola plataforma… Es por eso que hemos trabajado con la Coalición de Salud Mental para establecer Thrive, el primer programa de intercambio de señales para compartir señales sobre contenido violatorio sobre suicidio y autolesión.
“A través de Thrive, las empresas tecnológicas participantes podrán compartir señales sobre contenido que infrinja las normas sobre suicidio o autolesión, de modo que otras empresas puedan investigar y tomar medidas si se comparte el mismo contenido o contenido similar en sus plataformas. Meta proporciona la infraestructura técnica que sustenta Thrive… lo que permite compartir señales de forma segura”.
Cuando una empresa participante como Meta descubre contenido dañino en su aplicación, comparte hashes (código anónimo perteneciente a fragmentos de contenido relacionados con la autolesión o el suicidio) con otras empresas tecnológicas, para que puedan examinar sus propias bases de datos en busca del mismo contenido, ya que tiende a propagarse entre plataformas.
Análisis: Un buen comienzo
Mientras existan plataformas que dependan de que los usuarios carguen su propio contenido, habrá quienes violen las normas y difundan mensajes dañinos en línea. Esto podría presentarse en forma de estafadores que intentan vender cursos falsos, contenido inapropiado en canales dirigidos a niños y contenido relacionado con el suicidio o la autolesión. Las cuentas que publican este tipo de contenido generalmente son muy buenas para eludir las reglas y pasar desapercibidas para llegar a su público objetivo; el contenido a menudo se elimina demasiado tarde.
Es bueno ver que las plataformas de redes sociales (que utilizan algoritmos integrales y una arquitectura similar a la de un casino para mantener a sus usuarios enganchados y ofrecerles automáticamente contenido con el que interactuar) realmente asuman cierta responsabilidad y trabajen juntas. Este tipo de cooperación ética entre las aplicaciones de redes sociales más populares es muy necesaria. Sin embargo, este debería ser solo el primer paso en el camino hacia el éxito.
El problema con el contenido generado por los usuarios es que necesita ser vigilado constantemente. La inteligencia artificial puede ayudar a marcar automáticamente el contenido dañino, pero algunos se escaparán de todas formas: gran parte de este contenido tiene matices y contiene subtextos que un humano en algún punto de la cadena tendrá que ver y marcar como dañino. Sin duda, estaré atento a Meta, TikTok y otras empresas en lo que respecta a sus políticas cambiantes sobre contenido dañino.