Estados Unidos necesita mejores leyes para la IA en la publicidad política

Desde hace años, la IA ha socavado la capacidad del público para confiar en lo que ve, oye y lee. El Comité Nacional Republicano publicó un anuncio provocativo que ofrece una “mirada generada por IA sobre el posible futuro del país si Joe Biden es reelegido”, mostrando imágenes apocalípticas hechas a máquina de paisajes urbanos arruinados y caos en la frontera. Llamadas automáticas falsas que supuestamente era de Biden instó a los residentes de New Hampshire a no votar en las elecciones primarias de 2024. Este verano, el Departamento de Justicia tomó medidas enérgicas contra una Granja de robots rusa que estaba usando IA para hacerse pasar por estadounidenses en las redes sociales, y OpenAI interrumpió un grupo iraní usar ChatGPT para generar comentarios falsos en las redes sociales.

No está del todo claro qué daño puede causar la propia IA, aunque los motivos de preocupación son obvios: la tecnología facilita que los malos actores construyan altamente persuasivo y contenido engañoso. Teniendo en cuenta ese riesgo, ha habido cierto movimiento hacia la limitación del uso de la IA, pero el progreso ha sido extremadamente lento en el área donde puede contar más: las elecciones de 2024.

Hace dos años, la administración Biden emitió un plan para una Declaración de Derechos de AI cuyo objetivo es abordar “sistemas inseguros o ineficaces”, “discriminación algorítmica” y “prácticas abusivas de datos”, entre otras cosas. Luego, el año pasado, Biden se basó en ese documento cuando emitió su orden ejecutiva sobre IA. También en 2023, el líder de la mayoría del Senado, Chuck Schumer, celebró una Cumbre de IA en Washington que incluía a los centibillonarios Bill Gates, Mark Zuckerberg y Elon Musk. Varias semanas después, el Reino Unido organizó una Cumbre internacional sobre seguridad de la IA que dio lugar a la seria “Declaración de Bletchley”, que instó a la cooperación internacional en la regulación de la IA. Los riesgos de la falsificación de la IA en las elecciones no han sorprendido a nadie.

Sin embargo, nada de esto ha resultado en cambios que resolverían el uso de la IA en las campañas políticas estadounidenses. Peor aún, las dos agencias federales que tenían posibilidades de hacer algo al respecto han dejado la pelota, muy probablemente hasta después de las elecciones.

El 25 de julio, la Comisión Federal de Comunicaciones emitió un propuesta eso requeriría que los anuncios políticos en televisión y radio revelaran si utilizan IA. (La FCC no tiene jurisdicción sobre el streaming, las redes sociales o los anuncios web). Eso parece un paso adelante, pero hay dos grandes problemas. En primer lugar, las normas propuestas, incluso si se promulgan, es poco probable que entrar en vigor antes votación anticipada comienza en las elecciones de este año. En segundo lugar, la propuesta inmediatamente se convirtió en una pelea partidista. Un comisionado republicano de la FCC presunto que el Comité Nacional Demócrata estaba orquestando el cambio de reglas porque los demócratas se están quedando atrás del Partido Republicano en el uso de la IA en las elecciones. Además, argumentó, este era el trabajo que le correspondía a la Comisión Federal Electoral.

Sin embargo, el mes pasado, la FEC anunciado que ni siquiera intentará establecer nuevas reglas contra el uso de IA para hacerse pasar por candidatos en anuncios de campaña mediante audio o video deepfake. La FEC también dijo que carece de autoridad legal para establecer reglas sobre tergiversaciones utilizando audio o video deepfake. Y lamentó que, de todos modos, carece de la experiencia técnica para hacerlo. Luego, la semana pasada, la FEC comprometidoanunciando que tiene la intención de hacer cumplir sus reglas existentes contra la tergiversación fraudulenta independientemente de la tecnología con la que se realice. Aboga por normas más estrictas sobre la IA en los anuncios de campaña, como Ciudadano publicono consideró que esto fuera suficiente y lo caracterizó como un “enfoque de esperar y ver qué pasa” para manejar el “caos electoral”.

Quizás esto sea de esperar: la libertad de expresión garantizada por la Primera Enmienda generalmente permite mintiendo en anuncios políticos. Pero el público estadounidense ha señalado que le gustaría que existieran reglas que regulen el uso de la IA en las campañas. En 2023, más de la mitad de los estadounidenses encuestados respondió que el gobierno federal debería prohibir todo uso de contenido generado por IA en anuncios políticos. Yendo más lejos, en 2024, alrededor de la mitad de encuestado Los estadounidenses dijeron que pensaban que a los candidatos políticos que manipularan intencionalmente audio, imágenes o videos se les debería impedir ocupar cargos públicos o destituirlos si hubieran ganado una elección. Sólo el 4 por ciento pensaba que no debería haber ninguna sanción.

El problema subyacente es que el Congreso no ha otorgado claramente a ninguna agencia la responsabilidad de mantener los anuncios políticos basados ​​en la realidad, ya sea en respuesta a la IA o a formas anticuadas de desinformación. La Comisión Federal de Comercio tiene jurisdicción sobre la verdad en la publicidad, pero los anuncios políticos son en gran medida eximir—Nuevamente, parte de nuestra tradición de la Primera Enmienda. El cometido de la FEC es financiar campañas, pero la Corte Suprema ha ido progresivamente despojado sus autoridades. Incluso cuando podría actuar, la comisión a menudo se ve obstaculizada por problemas políticos. punto muerto. La FCC tiene una responsabilidad más evidente en la regulación de la publicidad política, pero sólo en ciertos medios: transmisiónllamadas automáticas, mensajes de texto. Peor aún, las reglas de la FCC no son exactamente sólidas. en realidad tiene aflojado normas sobre spam político con el tiempo, lo que dio lugar al aluvión de mensajes que muchos reciben hoy. (Dicho esto, en febrero, la FCC hizo por unanimidad regla que las llamadas automáticas que utilizan tecnología de clonación de voz mediante IA, como el anuncio de Biden en New Hampshire, ya son ilegales según una ley que data de hace 30 años).

es un fragmentado sistema, con muchas actividades importantes siendo víctimas de lagunas en la autoridad legal y una guerra territorial entre agencias federales. Y a medida que las campañas políticas se han vuelto digitales, han entrado en un espacio en línea con incluso menos requisitos de divulgación u otras regulaciones. Nadie parece estar de acuerdo sobre dónde o si la IA está bajo la jurisdicción de alguna de estas agencias. A falta de una regulación amplia, algunos estados han tomado sus propias decisiones. En 2019, California fue el primero estado en la nación para prohibir el uso de medios de comunicación engañosamente manipulados en las elecciones, y ha fortalecido estas protecciones con una serie de medidas recientemente aprobadas. leyes este otoño. Diecinueve estados Ahora hemos aprobado leyes que regulan el uso de deepfakes en las elecciones.

Un problema al que tienen que enfrentarse los reguladores es la amplia aplicabilidad de la IA: la tecnología puede utilizarse simplemente para muchas cosas diferentes, cada una de las cuales exige su propia intervención. La gente puede aceptar que un candidato retoque digitalmente su foto para lucir mejor, pero no hacer lo mismo para que su oponente luzca peor. Estamos acostumbrados a recibir mensajes de campaña personalizados y cartas firmadas por el candidato; ¿Está bien recibir una llamada automática con un clon de voz del mismo político que pronuncia nuestro nombre? ¿Y qué deberíamos hacer con la campaña generada por IA? memes ¿Compartido ahora por figuras como Musk y Donald Trump?

A pesar del estancamiento en el Congreso, estos son temas de interés bipartidista. Esto hace posible que se pueda hacer algo, pero probablemente no hasta después de las elecciones de 2024 y sólo si los legisladores superan los principales obstáculos. Un proyecto de ley bajo consideración, el Ley de Transparencia de IA en las Eleccionesordenaría a la FEC que exija la divulgación cuando la publicidad política utilice medios generados sustancialmente por IA. Críticos Decir, de manera inverosímil, que la divulgación es onerosa y aumentaría el costo de la publicidad política. El Ley de publicidad honesta modernizaría la ley de financiación de campañas, ampliando la autoridad de la FEC para abarcar definitivamente la publicidad digital. Sin embargo, ha languidecido durante años debido a los informes oposición de la industria tecnológica. El Proteger las elecciones de la engañosa ley de inteligencia artificial prohibiría el contenido materialmente engañoso generado por IA en las elecciones federales, como en California y otros estados. Estas son propuestas prometedoras, pero los grupos libertarios y de libertades civiles ya están desafíos de señalización a todos estos por motivos de la Primera Enmienda. Y, curiosamente, al menos un comisionado de la FEC ha citado consideración por parte del Congreso de algunos de estos proyectos de ley como una razón para que su agencia no actúe sobre la IA mientras tanto.

Un grupo que se beneficia de toda esta confusión: las plataformas tecnológicas. Cuando hay pocas o ninguna regla evidente que gobierne los gastos políticos en línea y el uso de nuevas tecnologías como la inteligencia artificial, las empresas tecnológicas tienen la máxima libertad para vender anuncios, servicios y datos personales a las campañas. Esto se refleja en su cabildeo esfuerzosasí como las restricciones políticas voluntarias que ocasionalmente pregonan para convencer al público de que no necesitan una mayor regulación.

Las grandes empresas tecnológicas han demostrado que mantendrán estos compromisos voluntarios sólo si benefician a la industria. Facebook una vez, brevemente, prohibido publicidad política en su plataforma. Ya no; ahora incluso permite anuncios que niegan infundadamente el resultado de las elecciones presidenciales de 2020. Las políticas de OpenAI han prohibido durante mucho tiempo que las campañas políticas utilicen ChatGPT, pero esas restricciones son trivial para evadir. Varias empresas se han ofrecido voluntariamente a agregar marcas de agua al contenido generado por IA, pero son fáciles de eludir. Las marcas de agua podrían incluso generar desinformación peor dando la falsa impresión de que las imágenes sin marca de agua son legítimas.

Esta importante política pública no debería dejarse en manos de las corporaciones, pero el Congreso parece resignado a no actuar antes de las elecciones. Schumer insinuado a NBC News en agosto que el Congreso podría intentar adjuntar regulaciones ultrafalsas a los proyectos de ley de financiación o defensa que deben aprobarse este mes para garantizar que se conviertan en ley antes de las elecciones. Más recientemente, ha señalado la necesidad de actuar”más allá de las elecciones de 2024”.

Los tres proyectos de ley enumerados anteriormente valen la pena, pero son sólo un comienzo. No se debe dejar que la FEC y la FCC se enfrenten entre sí sobre qué territorio pertenece a qué agencia. Y la FEC necesita algo más significativo, reforma estructural para reducir el estancamiento partidista y permitirle hacer más cosas. También necesitamos transparencia y gobernanza de la amplificación algorítmica de la desinformación en las plataformas de redes sociales. Eso requiere que el influencia omnipresente de las empresas tecnológicas y sus multimillonario Los inversores deberían verse limitados mediante medidas más fuertes. cabildeo y finanzas-de-campaña protecciones.

Nuestra regulación del electoralismo nunca alcanzó a AOL, y mucho menos a las redes sociales y la inteligencia artificial. Y los videos engañosos dañan nuestro proceso democrático, ya sean creados por IA o actores en un escenario de sonido. Pero la preocupación urgente por la IA debería aprovecharse para impulsar la reforma legislativa. El Congreso necesita hacer más que meter unos cuantos dedos en el dique para controlar la próxima ola de desinformación electoral. Necesita actuar con más audacia para remodelar el panorama de la regulación de las campañas políticas.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here