El gobernador de California veta un proyecto de ley para crear medidas de seguridad para la IA, las primeras en el país

SACRAMENTO, California — El gobernador de California, Gavin Newsom, vetó un proyecto de ley histórico destinado a establecer el primero en la nación. medidas de seguridad para grandes modelos de inteligencia artificial el domingo.

La decisión es un duro golpe a los esfuerzos que intentan controlar la industria local que está evolucionando rápidamente con poca supervisión. El proyecto de ley habría establecido algunas de las primeras regulaciones sobre modelos de IA a gran escala en el país y allanado el camino para regulaciones de seguridad de IA en todo el país, dijeron sus partidarios.

A principios de este mes, el gobernador demócrata dijo a una audiencia en Dreamforce, una conferencia anual organizada por el gigante del software Salesforce, que California debe liderar la regulación de la IA ante la inacción federal, pero que la propuesta “Puede tener un efecto paralizador en la industria”.

La propuesta, que generó una feroz oposición de nuevas empresas, gigantes tecnológicos y varios miembros demócratas de la Cámara de Representantes, podría haber perjudicado a la industria local al establecer requisitos rígidos, dijo Newsom.

“Aunque tiene buenas intenciones, la SB 1047 no tiene en cuenta si un sistema de IA se implementa en entornos de alto riesgo, implica la toma de decisiones críticas o el uso de datos confidenciales”, dijo Newsom en un comunicado. “En cambio, el proyecto de ley se aplica estándares estrictos incluso para las funciones más básicas, siempre que lo implemente un sistema grande. No creo que este sea el mejor enfoque para proteger al público de las amenazas reales que plantea la tecnología”.

Newsom anunció el domingo que el estado se asociará con varios expertos de la industria, incluido el pionero de la inteligencia artificial. Fei-Fei Lipara desarrollar barreras de seguridad en torno a potentes modelos de IA. Li se opuso a la propuesta de seguridad de la IA.

La medida, destinada a reducir los riesgos potenciales creados por la IA, habría requerido que las empresas probaran sus modelos y divulgaran públicamente sus protocolos de seguridad para evitar que los modelos fueran manipulados para, por ejemplo, acabar con la red eléctrica del estado o ayudar a construir armas químicas. Los expertos dicen que esos escenarios podrían ser posibles en el futuro a medida que la industria siga avanzando rápidamente. También habría brindado protección a los trabajadores como denunciantes.

El autor del proyecto de ley, el senador estatal demócrata Scott Weiner, calificó el veto como “un revés para todos los que creen en la supervisión de corporaciones masivas que están tomando decisiones críticas que afectan la seguridad y el bienestar del público y el futuro del planeta”.

“Las empresas que desarrollan sistemas avanzados de IA reconocen que los riesgos que estos modelos presentan al público son reales y aumentan rápidamente. Si bien los grandes laboratorios de IA han asumido compromisos admirables para monitorear y mitigar estos riesgos, la verdad es que los compromisos voluntarios de la industria no son ejecutables y rara vez funcionan bien para el público”, dijo Wiener en un comunicado el domingo por la tarde.

Wiener dijo que el debate en torno al proyecto de ley ha hecho avanzar dramáticamente la cuestión de la seguridad de la IA y que continuaría insistiendo en ese punto.

La legislación se encuentra entre una gran cantidad de facturas aprobado por la Legislatura este año para regular la IA, luchar contra los deepfakes y proteger a los trabajadores. Los legisladores estatales dijeron que California debe tomar medidas este año, citando duras lecciones que aprendieron al no controlar a las empresas de redes sociales cuando podrían haber tenido la oportunidad.

Los defensores de la medida, incluidos Elon Musk y Anthropic, dijeron que la propuesta podría haber inyectado algunos niveles de transparencia y responsabilidad en torno a los modelos de IA a gran escala, ya que los desarrolladores y expertos dicen que todavía no tienen una comprensión completa de cómo se comportan y por qué.

El proyecto de ley apuntaba a sistemas que requieren más de 100 millones de dólares para construir. Ningún modelo actual de IA ha alcanzado ese umbral, pero algunos expertos dijeron que eso podría cambiar durante el próximo año.

“Esto se debe al enorme aumento de la inversión dentro de la industria”, dijo Daniel Kokotajlo, un ex investigador de OpenAI que renunció en abril por lo que vio como una indiferencia de la compañía hacia los riesgos de la IA. “Es una enorme cantidad de poder tener el control inexplicable de cualquier empresa privada, y también es increíblemente arriesgado”.

Estados Unidos ya está detrás Europa en la regulación de la IA para limitar los riesgos. La propuesta de California no era tan completa como las regulaciones en Europa, pero habría sido un buen primer paso para poner barreras en torno a la tecnología en rápido crecimiento que está generando preocupaciones sobre la pérdida de empleos, la desinformación, las invasiones de la privacidad y sesgo de automatizacióndijeron sus seguidores.

Varias empresas líderes en IA el año pasado acordado voluntariamente seguir las salvaguardias establecidas por la Casa Blanca, como probar y compartir información sobre sus modelos. El proyecto de ley de California habría obligado a los desarrolladores de IA a seguir requisitos similares a esos compromisos, dijeron los partidarios de la medida.

Pero los críticos, incluida la ex presidenta de la Cámara de Representantes de Estados Unidos, Nancy Pelosi, argumentaron que el proyecto de ley “mataría a la tecnología de California” y sofocaría la innovación. Dijeron que habría disuadido a los desarrolladores de IA de invertir en modelos grandes o compartir software de código abierto.

La decisión de Newsom de vetar el proyecto de ley marca otra victoria en California para las grandes empresas tecnológicas y los desarrolladores de IA, muchos de los cuales pasaron el año pasado presionando junto a la Cámara de Comercio de California para influir en el gobernador y los legisladores para que no avanzaran en las regulaciones de IA.

Otras dos propuestas radicales de IA, que también enfrentaron una creciente oposición de la industria tecnológica y otros, fracasaron antes de la fecha límite legislativa el mes pasado. Los proyectos de ley habrían requerido que los desarrolladores de IA etiquetaran el contenido generado por IA y prohibir la discriminación por parte de las herramientas de inteligencia artificial utilizados para tomar decisiones laborales.

El gobernador dijo a principios de este verano que quería proteger el estatus de California como líder mundial en IA, señalando que 32 de las 50 principales empresas de IA del mundo están ubicadas en el estado.

Ha promovido a California como uno de los primeros en adoptar el estado. pronto podría implementar herramientas de IA generativa para abordar la congestión de las carreteras, brindar orientación fiscal y optimizar los programas para personas sin hogar. El estado también anunció el mes pasado una asociación voluntaria con el gigante de la inteligencia artificial Nvidia para ayudar a capacitar a estudiantes, profesores universitarios, desarrolladores y científicos de datos. California también está considerando nuevas reglas contra la discriminación por IA en las prácticas de contratación.

A principios de este mes, Newsom firmó algunas de las leyes más estrictas del país para reprimir falsificaciones electorales y medidas para proteger a los trabajadores de Hollywood del uso no autorizado de IA.

Pero incluso con el veto de Newsom, la propuesta de seguridad de California está inspirando a legisladores de otros estados a adoptar medidas similares, dijo Tatiana Rice, subdirectora del Future of Privacy Forum, una organización sin fines de lucro que trabaja con legisladores en propuestas de tecnología y privacidad.

“Posiblemente lo copiarán o harán algo similar en la próxima sesión legislativa”, dijo Rice. “Así que no va a desaparecer”.

—-

Associated Press y OpenAI han un acuerdo de licencia y tecnología que permite a OpenAI acceder a parte de los archivos de texto de AP.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here