TechScape: Por qué la trampa de la confianza en las noticias falsas podría ser su perdición | Tecnología

IHay un mundo salvaje en línea, con desinformación y desinformación volando a gran velocidad. Estoy a medio camino de escribir un libro sobre la historia de las noticias falsas, así que soy muy consciente de que la gente inventando cosas no es nueva. Pero lo nuevo es el alcance que tienen los alborotadores, ya sean sus acciones deliberadas o accidentales.

Las redes sociales y la Internet en general cambiaron el juego para los traviesos y hicieron que fuera más fácil para el resto de nosotros ser engañados en línea sin darnos cuenta (ver: los extraños Tendencia de “Adiós Meta AI” sobre el que escribí esta semana para The Guardian). El auge de la IA generativa desde el lanzamiento de ChatGPT en 2022 también ha aumentado los riesgos. Si bien las primeras investigaciones sugieren que nuestros mayores temores sobre el impacto de los deepfakes generados por IA en las elecciones son infundados, el entorno general de la información es desconcertante.

¿Ver para creer?

Esto es evidente en la información recopilada por Behavioral Insights Team (BIT), una organización con fines sociales surgida del gobierno del Reino Unido, y compartida exclusivamente conmigo para TechScape. La encuesta realizada a 2.000 adultos del Reino Unido pone de relieve lo confusa que es actualmente la red del salvaje oeste.

Mientras que el 59% de los encuestados por BIT cree que puede detectar información falsa en línea, los investigadores de BIT descubrieron que sólo el 36% de las personas confiaba en que otros podría detectar noticias falsas.

Eso es un problema por dos razones. Una es nuestra poca confianza en la capacidad de otras personas para identificar historias falsas. El otro es el abismo de percepción entre nuestras propias capacidades y las del público en general. Sospecho que si realmente midiéramos qué tan bien las personas distinguen la desinformación de la verdad, estaría más cerca del número más bajo que del más alto. En resumen, tendemos a pensar que somos más inteligentes de lo que somos.

¿No me crees? Para mi primer libro, youtubersencargué una encuesta a YouGov para ver qué tan bien reconocía el público a las principales figuras en la plataforma. El equipo de YouGov recomendó que, entre los nombres reales, agregara a alguien que no existiera como una especie de prueba de sentido para identificar la proporción de personas que estaban mintiendo. Un número preocupante de encuestados dijo con seguridad que conocía a la persona que habían inventado los encuestadores, y que la conocía bien.

Un pantano de desinformación

Todo esto es importante debido a la magnitud del problema de información falsa que existe.

Tres cuartas partes de los encuestados de BIT dijeron que habían visto noticias falsas en la última semana, siendo X (que redujo sus equipos de moderación de contenido hasta la médula a favor del absolutismo de la libertad de expresión de Elon Musk) y TikTok considerados los peores infractores. LinkedIn fue visto como el menos peor (pero no está del todo claro si eso se debe a que muchos evitan la plataforma porque tiene fama de aburrida).

De todos modos, los hallazgos no resultan cómodos para quienes los llevaron a cabo. “Nuestra última investigación se ha sumado a la creciente evidencia de que los usuarios de las redes sociales confían demasiado en su capacidad para detectar información falsa”, dice Eva Kolker, directora de mercados de consumo y negocios de BIT. “Paradójicamente, esto podría estar haciendo que la gente sea más susceptible a ello”.

En resumen: si cree que es mejor que otros para detectar noticias falsas, en realidad es más probable que tenga defensas más bajas y que caiga en problemas cuando (inevitablemente) las encuentre en línea.

¿Qué se debe hacer?

Fotografía: X

Bueno, un comienzo sería capacitar a los usuarios para que sean más conscientes de los riesgos de las noticias falsas y del impacto que pueden tener cuando se comparten con sus círculos sociales. Las cosas crecen rápidamente gracias a la mentalidad de mafia mediada por algoritmos de redes sociales, como esa publicación de Adiós Meta AI. Por eso es importante pensar dos veces y hacer clic una vez. (Describí mejores formas de combatir las amenazas a nuestros datos en esta pieza.)

Pero Kolker no está convencido de que eso sea suficiente. “Muchos de nuestros intentos de mejorar la seguridad en línea se han centrado en mejorar el conocimiento y la capacidad de los usuarios individuales”, afirma. “Aunque es importante, nuestra investigación muestra que existen límites inherentes a la eficacia de este enfoque”.

omitir la promoción pasada del boletín

“No podemos confiar simplemente en que los individuos cambien su comportamiento. Para combatir realmente la desinformación, también necesitamos que las plataformas de redes sociales tomen medidas y que los reguladores y el gobierno intervengan para nivelar el campo de juego”.

¿Es hora de una intervención?

El TBI elaboró ​​una serie de recomendaciones que habían presentado a los gobiernos y las plataformas de redes sociales para tratar de combatir la información errónea y la desinformación. El primero de ellos es marcar las publicaciones que contienen información falsa tan pronto como se detectan, para intentar concienciar al público antes de compartirlas. Para crédito de Meta, eso es algo que hizo con la tendencia Goodbye Meta AI, agregando etiquetas a las publicaciones que señalaban que la información no era correcta.

El TBI también recomienda que las plataformas sean más estrictas en cuanto a la cantidad de contenido legal pero dañino que muestran. Las teorías de conspiración se pudren en un ambiente de información pútrido, y el TBI parece sugerir que el enfoque estándar de Silicon Valley –que la luz del sol es el mejor desinfectante– no es suficiente.

Excepto en un caso. Su tercera recomendación son las clasificaciones públicas periódicas de cuánto contenido falso o dañino hay en cada plataforma.

Es difícil decir si algo de esto funcionará. Últimamente he estado analizando la ciencia junto con estudios y encuestas como el de BIT por varias razones, y cada intervención positiva también parece tener sus inconvenientes. Pero si la tendencia viral de Goodbye Meta AI nos muestra algo, es que no podemos simplemente asumir que las personas son capaces de distinguir lo que es real de lo que no lo es.

El libro más reciente de Chris Stokel-Walker es Cómo la IA se comió el mundo. Su próximo libro, sobre la historia de las noticias falsas, saldrá en la primavera de 2025.

Si quieres leer la versión completa del newsletter por favor suscríbete para recibir TechScape en su bandeja de entrada todos los martes.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here