Firmar o vetar: ¿Qué sigue para el proyecto de ley de desastres de inteligencia artificial de California, SB 1047?

Un controvertido proyecto de ley de California para prevenir desastres de IA, el SB 1047, ha pasado las votaciones finales en el Senado del estado y ahora pasa al escritorio del gobernador Gavin Newsom. Debe sopesar los riesgos teóricos más extremos de los sistemas de IA (incluido su posible papel en las muertes humanas) frente a la posibilidad de frustrar el auge de la IA en California. Tiene hasta el 30 de septiembre para convertir en ley el SB 1047 o vetarlo por completo.

Presentado por el senador estatal Scott Wiener, el SB 1047 tiene como objetivo Evitar la posibilidad de que modelos de IA muy grandes creen eventos catastróficos.como pérdidas de vidas o ciberataques que costaron más de 500 millones de dólares en daños.

Para ser claros, hoy en día existen muy pocos modelos de IA que sean lo suficientemente amplios como para ser cubiertos por el proyecto de ley, y la IA nunca se ha utilizado para un ciberataque de esta escala. Pero el proyecto de ley se refiere al futuro de los modelos de IA, no a los problemas que existen hoy.

La SB 1047 responsabilizaría a los desarrolladores de modelos de IA de los daños que provoquen (como por ejemplo a los fabricantes de armas por los tiroteos masivos) y otorgaría al fiscal general de California el poder de demandar a las empresas de IA por fuertes sanciones si su tecnología se usara en un evento catastrófico. En caso de que una empresa actúe de manera imprudente, un tribunal puede ordenarle que detenga sus operaciones; los modelos cubiertos también deben tener un “interruptor de apagado” que permita apagarlos si se los considera peligrosos.

El proyecto de ley podría transformar la industria de inteligencia artificial de Estados Unidos y está a un paso de convertirse en ley. Así es como podría evolucionar el futuro de la SB 1047.

¿Por qué Newsom podría firmarlo?

Wiener sostiene que Silicon Valley necesita más responsabilidad, y anteriormente le dijo a TechCrunch que Estados Unidos debe aprender de sus fracasos pasados ​​en la regulación de la tecnología. Newsom podría verse motivado a actuar con decisión en la regulación de la IA y exigir cuentas a las grandes tecnológicas.

Algunos ejecutivos de IA se han mostrado cautelosamente optimistas sobre la SB 1047, incluidos Elon Musk.

Otra optimista cautelosa sobre la SB 1047 es la ex directora de inteligencia artificial de Microsoft, Sophia Velastegui. Ella le dijo a TechCrunch que “la SB 1047 es un buen compromiso”, aunque admitió que el proyecto de ley no es perfecto. “Creo que necesitamos una oficina de inteligencia artificial responsable para Estados Unidos, o cualquier país que trabaje en ello. No debería ser solo Microsoft”, dijo Velastegui.

Anthropic es otro defensor cauteloso de la SB 1047, aunque la empresa no ha adoptado una posición oficial sobre el proyecto de ley. Varios de los cambios sugeridos por la startup Se agregaron a SB 1047y el director ejecutivo Dario Amodei ahora dice que los “beneficios del proyecto de ley probablemente superen sus costos” en un Carta al gobernador de CaliforniaGracias a las enmiendas de Anthropic, las empresas de IA solo pueden ser demandadas después de que sus modelos de IA causen algún daño catastrófico, no antes, como establecía una versión anterior de la SB 1047.

¿Por qué Newsom podría vetarlo?

Dada la fuerte oposición de la industria al proyecto de ley, no sería sorprendente que Newsom lo vetara. Si lo firma, su reputación se basaría en la SB 1047, pero si lo veta, podría postergar el asunto un año más o dejar que el Congreso se ocupe de ello.

“Esto (SB 1047) cambia el precedente con el que hemos tratado las políticas de software durante 30 años”, afirmó el socio general de Andreessen Horowitz, Martin Casado, en una entrevista con TechCrunch. “Desvía la responsabilidad de las aplicaciones y la aplica a la infraestructura, algo que nunca habíamos hecho”.

La industria tecnológica ha respondido con una rotunda protesta contra la SB 1047. Junto con a16z, La presidenta de la Cámara de Representantes, Nancy Pelosi, IA abiertaLos grupos comerciales de las grandes empresas tecnológicas y destacados investigadores de inteligencia artificial también están instando a Newsom a no firmar el proyecto de ley. Les preocupa que este cambio de paradigma sobre la responsabilidad tenga un efecto paralizante en la innovación de la inteligencia artificial en California.

Lo último que se quiere es que la economía de las empresas emergentes se vea afectada. El auge de la inteligencia artificial ha sido un gran estímulo para la economía estadounidense y Newsom se enfrenta a presiones para no desperdiciarlo. Incluso la Cámara de Comercio de Estados Unidos ha Pidió a Newsom que vetara el proyecto de leydiciendo que “la IA es fundamental para el crecimiento económico de Estados Unidos”, en una carta que le envió.

Si la SB 1047 se convierte en ley

Si Newsom firma el proyecto de ley, no sucederá nada el primer día, dijo a TechCrunch una fuente involucrada en la redacción de SB 1047.

Para el 1 de enero de 2025, las empresas tecnológicas deberán redactar informes de seguridad para sus modelos de IA. En ese momento, el fiscal general de California podría solicitar una orden judicial que exija a una empresa de IA que deje de entrenar u operar sus modelos de IA si un tribunal determina que son peligrosos.

En 2026, se pondrán en marcha más partes del proyecto de ley. En ese momento, se crearía la Junta de Modelos Fronterizos y comenzaría a recopilar informes de seguridad de las empresas tecnológicas. La junta, compuesta por nueve personas, seleccionadas por el gobernador y la legislatura de California, haría recomendaciones al fiscal general de California sobre qué empresas cumplen y cuáles no.

Ese mismo año, la SB 1047 también exigiría que los desarrolladores de modelos de IA contraten auditores para evaluar sus prácticas de seguridad, creando de hecho una nueva industria para el cumplimiento de la seguridad de la IA. Y el fiscal general de California podría comenzar a demandar a los desarrolladores de modelos de IA si sus herramientas se utilizan en eventos catastróficos.

Para 2027, la Junta de Modelos Fronterizos podría comenzar a emitir orientación para los desarrolladores de modelos de IA sobre cómo entrenar y operar modelos de IA de manera segura.

Si se veta la SB 1047

Si Newsom veta la SB 1047, los deseos de OpenAI se harían realidad y los reguladores federales probablemente tomarían la iniciativa en la regulación de los modelos de IA… eventualmente.

El jueves, OpenAI y Anthropic sentaron las bases de cómo sería la regulación federal de la IA. Acordaron dar al AI Safety Institute, un organismo federal, acceso anticipado a sus modelos avanzados de IA, según un comunicado de prensa. presione soltarAl mismo tiempo, OpenAI ha respaldado un proyecto de ley que Dejemos que el Instituto de Seguridad de la IA establezca estándares para modelos de IA.

“Por muchas razones, creemos que es importante que esto suceda a nivel nacional”, escribió el director ejecutivo de OpenAI, Sam Altman, en un piar el jueves.

Leyendo entre líneas, las agencias federales suelen producir regulaciones tecnológicas menos onerosas que las de California y tardan considerablemente más en hacerlo. Pero más que eso, Silicon Valley ha sido históricamente un socio táctico y comercial importante para el gobierno de los Estados Unidos.

“En realidad, existe una larga historia de sistemas informáticos de última generación que funcionan con el gobierno federal”, dijo Casado. “Cuando trabajaba para los laboratorios nacionales, cada vez que salía un nuevo superordenador, la primera versión se enviaba al gobierno. Lo hacíamos para que el gobierno tuviera las capacidades necesarias, y creo que esa es una razón mejor que las pruebas de seguridad”.

Fuente