El divisivo proyecto de ley de seguridad de la IA de California plantea una difícil decisión para el gobernador Gavin Newsom

Manténgase informado con actualizaciones gratuitas

El gobernador de California, Gavin Newsom, considerará si promulgar o vetar un controvertido proyecto de ley sobre inteligencia artificial que propone imponer regulaciones estrictas a las empresas de tecnología después de que superara su último obstáculo en la legislatura estatal el jueves.

Newsom, demócrata, tiene hasta el 30 de septiembre para emitir su decisión sobre el proyecto de ley, que ha dividido a Silicon Valley. Obligaría a los grupos tecnológicos y a las empresas emergentes a desarrollar AI Los modelos en el estado deben cumplir con un estricto marco de seguridad. Todas las empresas emergentes de IA más grandes, incluidas OpenAI, Anthropic y Cohere, así como las grandes empresas tecnológicas con modelos de IA, quedarían bajo su jurisdicción.

Es probable que Newsom se enfrente a una intensa presión de ambos lados. Algunas de las mayores empresas de tecnología e inteligencia artificial del estado, incluidas Google, Meta y OpenAI, han expresado su preocupación por el proyecto de ley en las últimas semanas, mientras que otras, como Anthropic, respaldada por Amazon, y Elon Musk, propietario de la empresa emergente de inteligencia artificial xAI, han expresado su apoyo.

La ley de Innovación Segura y Protegida para Sistemas de Inteligencia Artificial de Frontera, conocida como SB 1047, exige pruebas de seguridad para modelos avanzados de IA que operan en el estado cuyo desarrollo cueste más de 100 millones de dólares o que requieran un alto nivel de potencia informática. El Congreso de Estados Unidos aún no ha establecido un marco federal para la regulación de la IA, lo que ha dejado una oportunidad para que se realicen pruebas de seguridad. Californiaun centro de innovación tecnológica, para elaborar sus propios planes.

Según el proyecto de ley, los desarrolladores tendrían que crear un “interruptor de apagado” para apagar sus modelos si fallan, y enfrentarían acciones legales por parte del fiscal general del estado si no cumplen y sus modelos se utilizan para amenazar la seguridad pública.

También tendrían que garantizar que no desarrollarán modelos con “capacidades peligrosas”, como crear armas biológicas o nucleares o contribuir a ataques de ciberseguridad. Los desarrolladores estarían obligados a contratar auditores externos para evaluar sus prácticas de seguridad y proteger a los denunciantes sobre posibles abusos de la IA.

Sus oponentes, incluidos algunos grupos tecnológicos e inversores de Silicon Valley, afirman que sofocaría la innovación y obligaría a las empresas de IA a abandonar el estado.

El científico jefe de IA de Meta, Yann LeCun, escribió en X en julio que el proyecto de ley sería perjudicial para los esfuerzos de investigación de IA, mientras que OpenAI advirtió que crearía un entorno legal incierto para las empresas de IA y podría hacer que empresarios e ingenieros abandonen California.

En las últimas semanas, Andreessen Horowitz y Y Combinator han intensificado una campaña de lobby contra las propuestas, y Nancy Pelosi, expresidenta de la Cámara de Representantes de Estados Unidos por California, también publicó una declaración en contra del proyecto de ley, calificándolo de “bien intencionado pero mal informado”. Los opositores también afirmaron que el proyecto de ley se centraba en riesgos hipotéticos y añadía un riesgo de responsabilidad “extremo” para los fundadores.

El proyecto de ley fue modificado en las últimas semanas para suavizar algunos de esos requisitos, incluida la limitación de las responsabilidades civiles que originalmente había impuesto a los desarrolladores de IA y la reducción del alcance de quienes tendrían que adherirse a las reglas. Sin embargo, los críticos argumentan que el proyecto de ley todavía impone a las empresas emergentes requisitos onerosos y a veces poco realistas.

Los partidarios de esta tecnología, que se desarrolla rápidamente, afirman que necesita un marco regulatorio claro. Geoffrey Hinton, exdirector de IA en Google, que apoya el proyecto de ley, dijo en una declaración: “Los sistemas de IA potentes son increíblemente prometedores, pero los riesgos también son muy reales y deben tomarse muy en serio”.

“La SB 1047 adopta un enfoque muy sensato para equilibrar esas preocupaciones. Sigo siendo un apasionado del potencial de la IA para salvar vidas a través de mejoras en la ciencia y la medicina, pero es fundamental que tengamos una legislación con fuerza real para abordar los riesgos”.

El senador estatal de California Scott Wiener, un demócrata que presentó el proyecto de ley a principios de este año, dijo después de que fuera aprobado por el Senado estatal: “La innovación y la seguridad pueden ir de la mano, y California está liderando el camino. La legislatura ha dado el paso verdaderamente histórico de trabajar de manera proactiva para garantizar que una nueva y emocionante tecnología proteja el interés público a medida que avanza”.

Fuente