Algunas empresas de Fortune 500 destacan la IA como un riesgo empresarial

Mientras los líderes tecnológicos se pelean por las regulaciones de inteligencia artificial, los departamentos legales de sus empresas están destacando los riesgos comerciales que podría plantear el mosaico de reglas iniciales.

Director ejecutivo de DeepMind Demis Hassabiscofundador de OpenAI Sam Altmany aún Elon Musk han pedido diversos grados de protección que, en su opinión, podrían impedir que la tecnología se descontrole.

Expertos en derecho tecnológico dijeron anteriormente a Business Insider que un IA generativa sin control Podría marcar el comienzo de una “era oscura” en la que los trabajos protegidos por derechos de autor serán replicados por modelos, desincentivando el trabajo original y los malos actores crearán y distribuirán fácilmente información errónea.

A medida que los líderes tecnológicos y los responsables de las políticas averiguan qué son esos… Medidas de seguridad En realidad, parecería que cada vez más empresas de Fortune 500 están subrayando los posibles riesgos comerciales que implican las regulaciones.

Un análisis de Arize AI, una startup que ayuda a las empresas a solucionar problemas en los sistemas de IA generativa, descubrió que 137 de las empresas de Fortune 500 (o alrededor del 27 % de las empresas de Fortune 500) identificaron la regulación de la IA como un riesgo para su negocio en los informes anuales presentados ante la Comisión de Bolsa y Valores, al 1 de mayo.

Y la cantidad de empresas Fortune 500 que incluyeron la IA como factor de riesgo aumentó casi un 500% entre 2022 y 2024, según datos de Arize.

En estos informes anuales, las empresas citaron los costos que podrían surgir del cumplimiento de las nuevas leyes, las sanciones que podrían derivar de infringirlas o las reglas que podrían ralentizar el desarrollo de la IA.

Para ser claros, no están necesariamente diciendo que se oponen a las leyes de IA. En cambio, la preocupación es que no está claro cómo serán esas leyes, cómo se harán cumplir y si esas reglas serán consistentes en todo el mundo. La legislatura de California, por ejemplo, acaba de pasar el primer proyecto de ley de inteligencia artificial a nivel estatal, pero no está claro si el gobernador Gavin Newsom lo convertirá en ley o si otros estados seguirán su ejemplo.

“La incertidumbre creada por un panorama regulatorio en constante evolución presenta claramente riesgos reales y costos de cumplimiento para las empresas que dependen de los sistemas de IA para todo, desde reducir el fraude con tarjetas de crédito hasta mejorar la atención al paciente o las llamadas de servicio al cliente”, dijo Jason Lopatecki, director ejecutivo de Arize AI, a Business Insider en un correo electrónico. “No envidio al legislador ni al asesor que intenta comprender lo que está sucediendo en este momento”.

La regulación podría frenar los negocios

Los informes anuales de las empresas advierten a los inversores de una larga lista de posibles golpes a las empresas, desde los específicos (otra ola de COVID-19) hasta los riesgos generales, como las posibilidades de ataques cibernéticos o mal tiempo. Ahora, las regulaciones de la IA figuran en esa lista de incógnitas, incluido el costo de mantenerse al día con las nuevas reglas.

Meta, por ejemplo, mencionó la IA 11 veces en su informe anual de 2022 y 39 veces en 2023. La empresa dedicó una página completa en su Informe anual 2023 El gigante tecnológico dijo que “no era posible predecir todos los riesgos relacionados con el uso de la IA”, incluido el modo en que la regulación afectará a la empresa.

Motorola Solutions dijo en su informe anual que cumplir con las regulaciones de IA “puede ser oneroso y costoso, y puede ser inconsistente de una jurisdicción a otra, lo que aumenta aún más el costo del cumplimiento y el riesgo de responsabilidad”.

“Tampoco está claro cómo las leyes y regulaciones existentes y futuras que rigen cuestiones como la IA, los productos habilitados para IA, la biometría y otros análisis de video se aplicarán o se harán cumplir con respecto a los productos y servicios que vendemos”, escribió la empresa.

NetApp, una empresa de infraestructura de datos, dijo en su informe anual La empresa dijo que su objetivo es “utilizar la IA de manera responsable”, pero que podría “no lograr identificar o resolver los problemas antes de que surjan”. La empresa agregó que la regulación que frena la adopción de la IA podría ser perjudicial para su negocio.

“En la medida en que la regulación retrase o impida materialmente la adopción de IA, la demanda de nuestros productos podría no cumplir con nuestras previsiones”, escribió la empresa.

George Kurian, director ejecutivo de NetApp, dijo: El Wall Street Journal que fomenta la regulación de la IA.

“Necesitamos una combinación de autorregulación de la industria y de los consumidores, además de una regulación formal”, dijo Kurian a la publicación. “Si la regulación se centra en permitir el uso seguro de la IA, puede ser una bendición”.