La tecnología deepfake está emergiendo rápidamente como la última “caja de Pandora” de la IA. Ya no nos limitamos a producir contenido paródico de políticos (¿quién olvidará alguna vez al Papa luciendo Moncler?), ahora estamos viendo cómo la IA generativa se utiliza activamente como arma, desde falsificaciones políticas engañosas, anuncios de celebridades con clickbait, hasta niños en edad escolar que falsifican fotografías explícitas de compañeros de clase.
Como las capacidades de herramientas de inteligencia artificial carrera por delante de la regulación, muchos están cada vez más preocupados por la amenaza muy real que representa. Están apareciendo nuevas leyes, pero muchas de ellas son demasiado limitadas o demasiado vagas para proteger a las personas de manera integral. Y, por otro lado, estas nuevas reglas tienen implicaciones que fácilmente podrían sorprender a los profesionales que intentan utilizar la IA generativa de manera legítima.
Entonces, ¿qué protección legal existe actualmente en el Reino Unido en torno a las tecnologías deepfake y qué comportamientos están prohibidos?
Graeme Murray es asociado senior de Marks & Clerks y Michael Shaw es socio de Marks & Clerk.
Las variedades de rostro
Primero, es importante definir qué es lo que hace que un deepfake sea un deepfake. Después de todo, las similitudes existen en la naturaleza (hay un viejo refrán que dice que siete personas en el mundo se parecen a usted), pero ¿hasta qué punto las similitudes están protegidas por la regulación y dónde puede cometer un error como empresa? Un ejemplo útil es el fallo de 2019 contra la empresa de vapeo Diamond Mist. Los anuncios de la empresa incluían uno con el lema “Mo está loco por el mentol” acompañado de imágenes de un modelo masculino con la cabeza calva y cejas pobladas.
Mo Farah recurrió a Twitter para quejarse de la posible confusión; la gente preocupada pensaría que había respaldado el producto. En última instancia, la Agencia de Normas de Publicidad (ASA) dictaminó que el anuncio efectivamente daba una “impresión engañosa”: si bien 'Mo' es un apodo común, la cabeza y las cejas de la modelo “recordaban” lo suficiente al atleta como para que los espectadores lo asociaran con él. Mo Farah como una de las figuras más conocidas en el Reino Unido con ese nombre.
Aquí radica el quid de la cuestión: si bien la imagen no era un deepfake, era lo suficientemente similar como para confundir a los espectadores, y lo mismo se aplica a los deepfakes. Si es lo suficientemente engañoso como para confundir a otra persona, tiene motivos para considerar un litigio.
Por el contrario, como empresa, debe considerar todas las posibles interpretaciones de las imágenes para asegurarse de poder utilizar la IA generativa sin verse atrapado en complicaciones legales. El hecho de que la foto de archivo con IA que estás usando para encabezar un artículo de LinkedIn parezca genérica, no significa que lo sea. La voz, los gestos y el contexto son factores que se tienen en cuenta, pero en última instancia la pregunta es: ¿confundió a los espectadores?
Legislación actual sobre los deepfakes
Hasta la fecha, no existe ninguna ley en el Reino Unido que brinde protección general contra los deepfakes. En cambio, los individuos están protegidos bajo una variedad de regulaciones dependiendo de la naturaleza del deepfake.
Ley de seguridad en línea
La Ley de Seguridad en Línea tiene una disposición principal contra los deepfakes. Si bien ha sido ilegal compartir imágenes íntimas o explícitas de alguien sin su consentimiento desde 2015, la Ley de Seguridad en Línea ha agravado esta sentencia para hacer ilegal compartir también imágenes íntimas de alguien generadas por IA sin su consentimiento. Fundamentalmente, a diferencia de la sentencia sobre contenido íntimo genuino, no es necesario demostrar que el creador tenía la intención de causar angustia en el caso de imágenes deepfake, aunque se considera un delito más grave si se puede demostrar una intención sexual. Es vital tener en cuenta que este fallo no penaliza la creación de un deepfake explícito, solo compartirlo. La Ley de Seguridad en Línea también se centra principalmente en eliminar contenido ofensivo; A muchos les preocupa que las disposiciones resulten ineficaces mientras la creación de deepfakes íntimos siga sin estar regulada y los perpetradores escapen al castigo.
Agencia de normas de publicidad
La ASA interviene cuando los anuncios contienen contenido engañoso. En cuanto a los deepfakes, esto ocurre principalmente en el caso de anuncios fraudulentos o clickbait; es poco probable que afecte a la gente común, y quienes dirigen negocios deben saber que no deben utilizar celebridades, quienes generalmente han registrado su imagen, gestos y voz, por ejemplo.
Sin embargo, lo más interesante es el área gris de similitud que los deepfakes están destinados a exacerbar. Una cosa que el caso Mo Farah destacó particularmente fue que el parecido no tiene por qué ser idéntico, sólo necesita confundir al espectador lo suficiente como para crear dudas razonables. Dado que la IA generativa se basa en material protegido por derechos de autor, ahora existe el peligro de que las empresas puedan infringir accidentalmente las regulaciones de la ASA al utilizar resultados de IA generativa que accidentalmente son lo suficientemente similares a las celebridades de la vida real como para causar confusión. La intención en este caso no es relevante: lo único que importa es si los espectadores han sido engañados, y esto podría llevar a las empresas a problemas con la ASA.
Derecho civil
El último recurso para los ciudadanos del Reino Unido es el derecho civil. Si bien no existe una legislación específica que aborde los deepfakes, las personas podrían recurrir en las siguientes situaciones:
- Privacidad: un deepfake podría considerarse una violación del derecho a privacidadespecialmente si pueden demostrar que el creador utilizó datos personales para crearlos, que están protegidos por el RGPD del Reino Unido y la Ley de Protección de Datos de 2018.
- Acoso: múltiples deepfakes con la intención de causar alarma o angustia podrían formar la base de una demanda por acoso
- Difamación: si un deepfake tiene un efecto adverso en la reputación de una persona al retratarla de manera falsa o dañina, existe la posibilidad de que se inicie un caso de difamación.
En tales casos, lo mejor sería que una persona buscara orientación legal sobre cómo proceder.
El futuro de la legislación deepfake
Entonces, ¿hacia dónde va la legislación a partir de ahora? Ojalá, adelante. El gobierno del Reino Unido dio un paso atrás considerable respecto del tema en el período previo a las elecciones, pero con la Ley de IA de la UE a la cabeza, es probable que pronto veamos nuevas regulaciones.
El mayor problema, sin embargo, es la aplicación de la ley. Entre los tres organismos que hemos discutido anteriormente, la Ley de Seguridad en Línea, la Agencia de Estándares de Publicidad y el derecho civil del Reino Unido, todos se centran en regular la producción caso por caso. Actualmente, el Reino Unido no cuenta con ninguna regulación ni propuestas para introducir mayores medidas de seguridad en torno a los propios programas. De hecho, muchos están celebrando la falta de regulación en el Reino Unido tras la Ley de IA de la UE, con la esperanza de que genere una gran ayuda para las industrias de la IA.
Sin embargo, las estrategias actuales siguen siendo ineficientes. Las víctimas necesitan apoyo legal para avanzar en los casos, y los creadores siguen escapando de las repercusiones. El control generalizado de la tecnología tampoco es práctico; basta con mirar el RGPD para tener una idea de ello. Los esfuerzos para hacerlo, como la Ley de IA de la UE, aún no logran abordar el problema, ya que las tecnologías generativas de código abierto siguen estando completamente desreguladas.
Parece que se necesitará un árbitro independiente (un Ofcom para la IA), pero aún está por verse qué tan independiente o efectivo resultará. Esperemos que el nuevo Gobierno logre lograr algún tipo de equilibrio entre industria, protección personal y negocio innovación.
Hemos enumerado las mejores computadoras portátiles empresariales..
Este artículo se produjo como parte del canal Expert Insights de TechRadarPro, donde presentamos las mejores y más brillantes mentes de la industria tecnológica actual. Las opiniones expresadas aquí son las del autor y no son necesariamente las de TechRadarPro o Future plc. Si estás interesado en contribuir, descubre más aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro