Es en las plataformas de redes sociales donde la desinformación y la información errónea corre desenfrenadamenteCasi se puede apostar a que, cada vez que los acontecimientos importantes se convierten en parte de la conversación pública, Las falsedades digitales circulan rápidamente. Pensar en Pandemia de COVID-19 y ambos 2016 y 2020 Ciclos de elecciones presidenciales de Estados Unidos.

La llamada inteligencia artificial generada falsificaciones profundas sólo están agravando el problema y haciendo más fácil que nunca la difusión de desinformación y desinformación a través de las redes sociales.

Los expertos legales dijeron a Business Insider que la única forma real de combatir la desinformación y la información errónea en las redes sociales es mediante la creación de nuevas leyes federales o mediante la intensificación voluntaria de la autorregulación por parte de las empresas tecnológicas detrás de las plataformas.

“La IA significa que no serán solo palabras” las que difundirán información falsa en las redes sociales, sino también videos, fotos y grabaciones de audio”, dijo Barbara McQuade, ex fiscal estadounidense y autora del libro “Ataque desde dentro: cómo la desinformación está saboteando a Estados Unidos”.

McQuade, profesor de la Facultad de Derecho de la Universidad de Michigan, cree que es necesario promulgar nuevas leyes para abordar esta cuestión porque “se trata de una tecnología nueva que antes no existía”.

“Es posible que estemos llegando a un punto de concienciación en el que la gente empiece a comprender el riesgo y el peligro que ello implica”, afirmó McQuade.

Una reciente evaluación federal compilada por el Departamento de Seguridad Nacional de Estados Unidos advirtió sobre las amenazas que representa la IA para las elecciones presidenciales estadounidenses de 2024.

“A medida que avanza el ciclo electoral de 2024, las herramientas de inteligencia artificial generativa probablemente brinden a los actores de amenazas nacionales y extranjeros mayores oportunidades de interferencia al agravar eventos emergentes, interrumpir los procesos electorales o atacar la infraestructura electoral”, dice el análisis obtenido por ABC News. dicho.

Las empresas de redes sociales están protegidas de responsabilidad civil bajo una ley estadounidense

Las redes sociales han estado prácticamente desreguladas desde su nacimiento hace casi tres décadas. En Estados Unidos, gigantes tecnológicos como Meta, X, y Tik Tok están protegidos de la responsabilidad civil relacionada con el contenido publicado por sus usuarios y las prácticas de moderación de contenido de las empresas bajo Sección 230 de la Ley de Decencia en las Comunicaciones de 1996.

“Dice que no están sujetos a responsabilidad legal, que son inmunes”, explicó McQuade. “Y eso probablemente tenía sentido en 1996, cuando el objetivo era fomentar la innovación y la inversión, y aquí estamos, casi 30 años después, y hemos visto algunas de las consecuencias colaterales de este espacio no regulado”.

¿Cuál ha sido entonces la lucha del gobierno para abordar de frente el problema de la desinformación y la información errónea en las redes sociales? Según los expertos legales, las preocupaciones sobre la Primera Enmienda, la resistencia de las grandes empresas tecnológicas y la voluntad política tienen algo que ver con ello.

“Es difícil promulgar leyes, es difícil definir los términos” de desinformación y desinformación, es difícil llegar a un acuerdo sobre cuál sería la intervención adecuada y creo que es difícil elaborar algo que no tenga un problema de Primera Enmienda”, dijo Gautaum Hans, profesor de derecho y director asociado de la Clínica de la Primera Enmienda de la Universidad de Cornell.

“Cualquier tipo de regulación que tenga como objetivo la libertad de expresión tiene una barrera muy difícil de constitucionalidad, por lo que la cuestión allí es que habría que definir la desinformación o información errónea de una manera que no estuviera cubierta por la Primera Enmienda”, dijo Hans.

Hans dijo que cree que hay un “nerviosismo generalizado ante cualquier legislador o funcionario gubernamental que proponga algo que pueda considerarse orwelliano en su intento de crear una regulación de la libertad de expresión”.

“Creo que la mayoría de los políticos son conscientes de que sería malo para su reputación que se los considerara supresores de la libertad de expresión”, dijo.

Además, señaló Hans, “la existencia de desinformación tiene beneficios para ciertos actores políticos”.

Hans dijo que cree que es más probable que las soluciones a la desinformación y la información errónea en las redes sociales se encuentren a través de las prácticas privadas de las propias empresas tecnológicas en lugar de a través del ámbito de la ley.

“Creo que es más probable que suceda, y probablemente más efectivo a largo plazo, dados los problemas constitucionales de la intervención legislativa o regulatoria”, dijo.

La sección 230 ha sido objeto de acalorados debates durante años

McQuade argumentó que sería necesario incentivar a las empresas de redes sociales para que reforzaran su autorregulación en la lucha contra la desinformación y la información errónea.

“Creo que lo que hay que hacer es ejercer presión pública sobre ellos, a través de los consumidores, para obligarlos a cambiar su comportamiento o a través de la legislación federal”, dijo McQuade.

McQuade propuso modificando el artículo 230 con el fin de exigir responsabilidades a las empresas de redes sociales en determinadas circunstancias.

“La mejor manera de regular las redes sociales y el contenido en línea podría ser considerar los procesos en lugar del contenido, porque el contenido es muy complicado en términos de las protecciones de la Primera Enmienda”, dijo el ex fiscal federal, y agregó que “regular algunos de los procesos podría incluir cosas como los algoritmos”.

“Sugiero que tal vez se podría modificar la Sección 230 para establecer responsabilidad civil, es decir, daños monetarios si las empresas de redes sociales no toman ciertas precauciones”, dijo.

Esas precauciones, dijo McQuade, podrían estar relacionadas con la divulgación de algoritmos y cómo se utilizan los datos privados, requiriendo que los usuarios etiqueten el material generado por IA y la eliminación de bots, que “están ahí para amplificar información falsa”.

“Así que creo que esa sería la manera de usar un palo para lograr el cumplimiento exponiendo” a las empresas de redes sociales a responsabilidad legal por el incumplimiento de ciertos términos, dijo McQuade.

Esto inevitablemente sería cuestionado legalmente y “se recurriría a los tribunales para ver si esas leyes se mantienen, pero creo que probablemente eso es lo que se requeriría”, dijo McQuade.

“La información es un recurso muy importante, especialmente en una democracia”, afirmó McQuade. “Y parece que todo el mundo debería estar de acuerdo en que cuando hay desinformación, eso es un obstáculo para un buen gobierno”.

La Sección 230 ha sido objeto de un intenso escrutinio a lo largo de los años, tanto por parte de políticos republicanos como demócratas.

Ex-presidente Donald Trump y otros republicanos han argumentado que la ley otorga a las grandes tecnológicas demasiado poder para censurar las voces conservadoras, mientras que a los demócratas les gusta el presidente Joe Biden Han dicho que no hacen lo suficiente para combatir el discurso de odio.

En un Wall Street Journal artículo de opinión El año pasado, Biden redobló sus llamados a reformar la Sección 230.

“Necesitamos una acción bipartidista del Congreso para exigir responsabilidades a las grandes tecnológicas”, escribió Biden en el artículo de opinión. “Hemos oído hablar mucho de crear comités. Es hora de actuar y hacer algo”.

Sin embargo, las grandes tecnológicas obtuvieron una victoria enorme el año pasado cuando… La Corte Suprema de Estados Unidos se puso del lado de Twitter y Google en demandas que alegaban que “ayudaron e instigaron” ataques terroristas.

La decisión, que fue escrita Los jueces conservadores se mantuvieron al margen de la lucha por la Sección 230.

Las principales empresas de redes sociales tienen sus propias políticas de desinformación

Muchas de las principales empresas de redes sociales, incluidas Meta, TikTok y X, tienen sus propias políticas a la hora de abordar la información errónea y la desinformación.

Por ejemplo, Meta, propietaria de Facebook, Instagram y Threads, dice en su sitio web que elimine la información errónea “cuando sea probable que contribuya directamente al riesgo de daño físico inminente”.

“También eliminamos contenidos que puedan contribuir directamente a interferir en el funcionamiento de los procesos políticos y ciertos medios de comunicación manipulados y altamente engañosos”, afirma Meta.

Meta dice que se centra “en frenar la propagación de engaños y desinformación viral” y exige a los usuarios que revelen, mediante su “herramienta de divulgación de inteligencia artificial”, siempre que publiquen contenido con “vídeos fotorrealistas o audios con sonido realista que hayan sido creados o alterados digitalmente, y podemos aplicar sanciones si no lo hacen”.

“También podemos añadir una etiqueta a determinado contenido creado o alterado digitalmente que genere un riesgo particularmente alto de engañar a la gente sobre un asunto de importancia pública”, afirma Meta.

En un “informe sobre amenazas adversas” de mayo de 2024 elaborado por Meta, la empresa afirmó: “Hasta ahora, no hemos visto tácticas novedosas impulsadas por GenAI que puedan impedir nuestra capacidad de interrumpir las redes adversas detrás de ellas”.

Tik Tok dice No permite “desinformación dañina” en su plataforma y dice que tiene “políticas sólidas en torno a tipos específicos de desinformación como desinformación médica, sobre cambio climático y electoral, así como contenido engañoso generado por IA, teorías de conspiración y cuestiones de seguridad pública como desastres naturales”.

X, el sitio de redes sociales anteriormente conocido como Twitter, dice en su sitio web que los usuarios “no pueden compartir medios sintéticos, manipulados o fuera de contexto que puedan engañar o confundir a las personas y provocar daños ('medios engañosos')”.

“Además, podemos etiquetar publicaciones que contengan contenido multimedia engañoso para ayudar a las personas a comprender su autenticidad y proporcionar contexto adicional”, dice X.

Sin embargo, estas políticas no siempre son suficientes.

A principios de este año, Las imágenes gráficas generadas por IA de Taylor Swift se volvieron virales en Xcon una publicación que obtuvo 45 millones de visitas antes de que finalmente fuera eliminada 17 horas después.

X, que es propiedad de Elon Musk, Búsquedas bloqueadas de la estrella del pop como resultado.



Fuente