El Reino Unido celebrará una consulta sobre la “exclusión voluntaria” de contenido de IA, lo que supone un golpe para los editores

Manténgase informado con actualizaciones gratuitas

El gobierno del Reino Unido se dispone a consultar sobre un plan que permitiría a las empresas de inteligencia artificial extraer contenido de editores y artistas a menos que “opten por no participar”, en una medida que enojaría a la industria creativa.

La decisión se produce tras meses de cabildeo de ambas partes sobre si el contenido en línea debería incluirse automáticamente en el material que las empresas de inteligencia artificial pueden utilizar para entrenar sus algoritmos.

Las grandes empresas de tecnología, incluido el propietario de Google, Alphabet, han argumentado que deberían poder explotar Internet libremente para entrenar sus algoritmos, y que las empresas y los creadores tendrían la oportunidad de “optar por no participar” en tales acuerdos.

Pero los editores y creativos han argumentado que es injusto e impracticable pedirles que opten por no participar en estos acuerdos, ya que no siempre es posible saber qué empresas están intentando explotar su contenido.

Temen que un sistema de este tipo crearía una enorme carga administrativa, especialmente para las empresas más pequeñas, y han argumentado que, en cambio, deberían optar activamente por que los sistemas de inteligencia artificial utilicen su contenido. Argumentaron que esto les permitiría formular acuerdos de licencia y obtener un reembolso por su propiedad intelectual.

Sin embargo, los ministros planean realizar una consulta sobre la aplicación de un modelo de “exclusión voluntaria” en las próximas semanas, según dos personas informadas sobre los planes. Uno añadió que el modelo de “exclusión voluntaria” era el “resultado preferido” del gobierno.

El momento podría retrasarse, dado que la publicación del tan publicitado “Plan de Acción de IA” del gobierno está en suspenso hasta después del presupuesto del 30 de octubre. Otros dijeron que una creciente reacción de la industria por la medida aún podría descarrilar los planes.

La UE ha adoptado un modelo similar de “exclusión voluntaria” a través de su Ley de IA, otorgando a las empresas permiso para extraer contenido de Internet siempre que el propietario de los derechos de autor y derechos conexos no haya negado expresamente el permiso.

Pero los ejecutivos de los medios de comunicación en el Reino Unido se oponen profundamente a las propuestas, argumentando que conducirán al robo generalizado de su material protegido por derechos de autor sin remuneración.

Les preocupa que el gobierno esté siendo influenciado demasiado fácilmente por los argumentos de las empresas tecnológicas con mucho dinero, y uno de ellos señala la participación de ejecutivos anteriores y actuales de Google en la cumbre de inversiones de esta semana en Londres.

En un documento de lobby de septiembre, Google dijo que “para garantizar que el Reino Unido pueda ser un lugar competitivo para desarrollar y entrenar modelos de IA en el futuro, (el gobierno) debería permitir (la extracción de textos y datos) tanto para fines comerciales como de investigación”.

Los ejecutivos de los medios también advierten que no hay forma de verificar si una empresa de IA ha eliminado sus sitios a menos que se les dé acceso a sus datos de entrenamiento, algo que se hace más difícil porque algunas empresas de IA eliminan archivos de contenido antes de salir al mercado, mientras que otras ofrecen condiciones diferentes para búsqueda en lugar de resúmenes generados por IA.

El año pasado, la Oficina de Propiedad Intelectual, la agencia del gobierno del Reino Unido que supervisa las leyes de derechos de autor, consultó con empresas de inteligencia artificial y titulares de derechos para producir orientación sobre minería de textos y datos.

Sin embargo, el grupo de ejecutivos de la industria convocado por la IPO, que provenía de varias organizaciones artísticas y de noticias, incluidas la BBC, la Biblioteca Británica y el Financial Times, así como de las empresas tecnológicas Microsoft, DeepMind y Stability, finalmente no pudieron ponerse de acuerdo sobre un código de práctica voluntario, devolviendo al gobierno la responsabilidad de encontrar una solución viable.

La baronesa Jones de Whitchurch, ministra de seguridad en línea, dijo esta semana que el gobierno necesitaba “proteger a los titulares de derechos”, y agregó que “estamos tratando de encontrar una manera de solucionarlo que sea aceptable para todas las partes”.

Dijo que pensaba que la respuesta estaría “en algún punto intermedio en términos de alguna forma de asociación y entendimiento”.

Chris Bryant, ministro de Protección de Datos y Telecomunicaciones, organizó una mesa redonda con varios ejecutivos para discutir el tema la semana pasada.

Un portavoz del gobierno dijo: “Ésta es un área que requiere una participación reflexiva y, como parte de ella, estamos decididos a escuchar una amplia gama de opiniones que ayuden a fundamentar nuestro enfoque.

“Seguimos trabajando estrechamente con una variedad de partes interesadas, incluida la celebración de mesas redondas recientes con desarrolladores de inteligencia artificial y representantes de las industrias creativas, y estableceremos los próximos pasos lo antes posible”.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here