LinkedIn está transfiriendo la responsabilidad a los usuarios por compartir información engañosa o inexacta elaborada por su propia cuenta. herramientas de inteligencia artificialen lugar de las herramientas mismas.
Una actualización de noviembre de 2024 de su Acuerdo de servicio responsabilizará a los usuarios por compartir cualquier información errónea creada por herramientas de inteligencia artificial que violen el acuerdo de privacidad.
Dado que nadie puede garantizar que el contenido que produce la IA generativa sea veraz o correcto, las empresas se cubren al imponer a los usuarios la responsabilidad de moderar el contenido que comparten.
Inexacta, engañosa o no adecuada para su propósito
La actualización sigue los pasos de la empresa matriz de LinkedIn microsoftquien a principios de 2024 actualizó sus términos de servicio para Recuerde a los usuarios que no se tomen demasiado en serio los servicios de IA.y para abordar las limitaciones de la IA, advirtiendo que “no está diseñada ni para ser utilizada como sustituto del asesoramiento profesional”.
LinkedIn seguirá ofreciendo funciones que puedan generar contenido automatizado, pero con la salvedad de que puede no ser digno de confianza.
“Funciones de IA generativa: al utilizar los Servicios, puede interactuar con funciones que ofrecemos que automatizan la generación de contenido para usted. El contenido que se genera puede ser inexacto, incompleto, retrasado, engañoso o no adecuado para sus propósitos”, se lee en el pasaje actualizado.
La nueva política recuerda a los usuarios que deben verificar cualquier información y realizar modificaciones cuando sea necesario para cumplir con las pautas de la comunidad.
“Revise y edite dicho contenido antes de compartirlo con otras personas. Como todo el contenido que comparte en nuestros Servicios, usted es responsable de garantizar que cumpla con nuestras Políticas de la comunidad profesional, incluido no compartir información engañosa”.
La red social probablemente espera que sus modelos genAI mejoren en el futuro, especialmente porque ahora utiliza datos de usuario para entrenar sus modelos de forma predeterminadarequiriendo que los usuarios opten por no participar si no quieren que se utilicen sus datos.
Hubo una reacción bastante significativa contra esta medida, ya que las preocupaciones sobre el RGPD chocan con los modelos de IA generativa en todos los ámbitos, pero la reciente actualización de la política muestra que los modelos todavía necesitan bastante capacitación.
A través de El Registro