El entrenamiento de inteligencia artificial de Apple enfrenta una reacción violenta cuando los principales editores optan por no participar

¿Está a punto de desplomarse el impulso de la inteligencia artificial de Apple? Cada vez más medios de comunicación y plataformas sociales están diciendo “no” a los robots de búsqueda web del gigante tecnológico, ávidos de datos.

Durante décadas, estos robots digitales han estado recopilando información silenciosamente de Internet y alimentándola a todo tipo de plataformas, desde motores de búsqueda hasta modelos de inteligencia artificial. Pero a medida que la inteligencia artificial se ha vuelto más poderosa, las apuestas han aumentado. Ahora, los editores están trazando una línea divisoria, exigiendo control sobre su contenido y desafiando las ambiciones de inteligencia artificial de Apple.

El rastreador web de Apple, Applebot, fue diseñado inicialmente para potenciar funciones como Siri y Spotlight. Sin embargo, recientemente ha asumido otra función importante: recopilar datos para entrenar los modelos de inteligencia artificial básicos de Apple, o lo que la empresa llama “Apple Intelligence”. Estos datos incluyen texto, imágenes y otros contenidos.

Para apaciguar a los editores, Manzana presentó Applebot-Extended, una herramienta que permite a los propietarios de sitios web optar por no participar en el entrenamiento de IA. Por lo tanto, si bien existe la opción, muchos editores la están aprovechando. Al actualizar sus archivos robots.txt, pueden bloquear a Applebot (y otros rastreadores) para que no accedan a su contenido.

¿Qué es Robots.txt?

Robots.txt es un archivo que utilizan los propietarios de sitios web para controlar qué bots pueden acceder a su contenido. Los editores lo utilizan cada vez más para impedir que los bots de IA rastreen sus sitios web en busca de datos de entrenamiento. Esto se debe a las preocupaciones sobre los derechos de autor y el posible uso indebido de su contenido. Si bien robots.txt es una herramienta relativamente simple, se ha vuelto más compleja en la era de la IA. Con la rápida aparición de nuevos agentes de IA, puede resultar complicado para los editores mantener actualizadas sus listas de bloqueo. Como resultado, muchos están recurriendo a servicios que actualizan automáticamente sus archivos robots.txt.

La reacción

Dado que los archivos robots.txt son de acceso público, significa que todos pueden ver qué partes optan por no participar en el entrenamiento de IA de Apple, que es exactamente Lo que hizo Wired.

Resulta que algunos medios de comunicación, como The New York Times, por ejemplo, han criticado abiertamente la política de Apple de no participar. El periódico, que ha demandado a OpenAI por violación de derechos de autor, sostiene que los editores no deberían tener que optar por no participar, sino que se debe exigir un permiso a los rastreadores web para acceder al contenido de los medios.

Otros sitios web populares que también han optado por no participar son Instagram, Facebook, Tumblr, Craigslist, The Financial Times, The Atlantic, Vox Media, la cadena USA Today y la empresa matriz de WIRED, Condé Nast.

¿Qué sigue, entonces? ¿Se verá obligada Apple a repensar su estrategia de inteligencia artificial? ¿O encontrará una manera de apaciguar a los editores y continuar con sus ambiciones basadas en datos? La batalla por el control de la mina de oro digital de Internet está lejos de terminar.

Fuente