La IA tiene un problema de confianza. Aquí te contamos cómo solucionarlo.

La inteligencia artificial se encuentra en un momento crucial. La rápida aparición de la IA generativa ha traído consigo una avalancha de predicciones sobre el crecimiento de la IA y su impacto en las empresas y la sociedad. Pero hay un problema que puede impedir que su organización desarrolle la IA a su máximo potencial: la confianza.

Más de la mitad de los consumidores creen que la IA representa una amenaza grave para la sociedad. Y sin confianza en la IA, tanto dentro como fuera de la empresa, la IA nunca alcanzará su potencial.

La solución a este desafío es una “IA confiable”: una IA diseñada, desarrollada, implementada y administrada para satisfacer las diversas necesidades de las partes interesadas en materia de responsabilidad, competencia, coherencia, fiabilidad, empatía, integridad y transparencia. La introducción de una IA confiable es una estrategia bien definida que permite a las empresas implementar la IA de una manera que aproveche todos sus beneficios y minimice los riesgos y las dudas.

La brecha de confianza

En el contexto de la IA, la confianza significa la seguridad en un determinado resultado. Los usuarios de IA (ya sean desarrolladores de software que crean aplicaciones o consumidores que interactúan con chatbots) deben tener la seguridad de que los resultados de la IA que están utilizando son precisos, imparciales y útiles. Los resultados inexactos o inesperados, ya sean alucinaciones genAI o errores en los resultados basados ​​en texto, y el sesgo incorporado son algunas de las principales preocupaciones que limitan la confianza de los ejecutivos de negocios en la IA.

¿Qué tan grande es la brecha de confianza en las empresas? En una encuesta reciente de Forrester, el 25 % de los responsables de la toma de decisiones en materia de datos y análisis afirmó que la falta de confianza en los sistemas de IA es una de las principales preocupaciones en el uso de la IA, y el 21 % cita la falta de transparencia con los sistemas y modelos de IA/aprendizaje automático (ML).

Sin embargo, los consumidores son mucho más escépticos y dicen que quieren saber dónde se encuentra la IA en su proceso de compra y quieren más visibilidad sobre cómo las organizaciones con las que interactúan utilizan la IA. Un mero 28% de los adultos online en los EE. UU. dicen que confían en las empresas que utilizan modelos de IA con sus clientes, mientras que el 46% dice que no. Y más de la mitad (52%) dijo que siente que “la IA representa una amenaza grave para la sociedad”.

Para el creciente grupo de organizaciones que ven la IA como un componente clave para su crecimiento, es necesario abordar la brecha de confianza.

Construyendo una IA confiable

A pesar de las dudas y la desconfianza que existen en el mercado, dar marcha atrás en las iniciativas de IA en este momento crítico podría ser el mayor error que una empresa podría cometer. Dado el enorme potencial de la IA, la solución a estos desafíos no es adoptar menos, sino utilizar una IA más fiable.

Por definición, la IA confiable incluye “Siete palancas de confianza“:

1. Transparencia: Para muchos usuarios, la IA es una caja negra. Los enfoques de IA explicables pueden mejorar la transparencia y la interpretabilidad de los modelos.

2. Competencia: La IA es probabilística. Las máquinas aprenden de los datos del mundo real y, por lo tanto, reflejan la incertidumbre inherente al mundo. Los líderes empresariales que emplean IA deben aceptar el hecho de que las predicciones de IA no son deterministas.

3. Consistencia: La “desviación del modelo” se produce cuando el rendimiento de un modelo cambia con el tiempo debido a cambios en los datos u otros factores. La mejor manera de garantizar la coherencia de la IA es adoptar ModelOps: herramientas, tecnología y prácticas que ayudan a las organizaciones a implementar, supervisar, volver a entrenar y gestionar de manera eficiente los modelos de IA.

4. Responsabilidad: La IA nunca será perfecta. Por lo tanto, si la IA de su organización falla (por ejemplo, cuando un chatbot de un sitio sobre trastornos alimentarios recomendó a los visitantes que comenzaran a contar calorías), asuma la responsabilidad, explique qué salió mal y por qué, y adopte medidas claras para evitar repetir ese error en el futuro.

5. Integridad: Designar un director de ética o de confianza en su organización puede ayudar a guiar su proceso de IA y generar confianza tanto interna como externa. Incluso sin ese puesto, una organización debe definir claramente qué rol es responsable de la integridad de la IA.

6. Confiabilidad: La confianza en la IA significa tener confianza en sus resultados, y la fiabilidad genera confianza. La forma más eficaz de reforzar la fiabilidad de la IA es probarla simulando situaciones de forma virtual antes de probar un modelo en el mundo real.

7. Empatía: Involucrar a un grupo amplio y diverso de partes interesadas para probar modelos e incorporar comentarios puede eliminar sesgos e incorporar un nivel de empatía hacia los usuarios y clientes en los modelos de IA.

Por supuesto, en cuál de estas palancas se centrará su empresa dependerá de factores como su sector y sus objetivos. Pero el éxito a largo plazo con la IA no se medirá por la cantidad de herramientas que implemente su organización ni por la rapidez con la que las implemente. Las historias de éxito de la IA serán las empresas que obtengan un valor real de la IA, y eso depende claramente de cuánto confíen en la tecnología sus clientes y empleados.


¿Busca el socio adecuado que le ayude en su recorrido hacia la IA? Conozca Forrester.

Fuente