California avanza con una legislación histórica para regular los modelos de IA a gran escala | Inteligencia artificial (IA)

A California proyecto de ley que establecería medidas de seguridad pioneras en el país para los más grandes inteligencia artificial Los sistemas de inteligencia artificial (IA) superaron una importante votación el miércoles. La propuesta, que apunta a reducir los riesgos potenciales creados por la IA, requeriría que las empresas prueben sus modelos y revelen públicamente sus protocolos de seguridad para evitar que los modelos sean manipulados para, por ejemplo, destruir la red eléctrica del estado o ayudar a construir armas químicas, escenarios que, según los expertos, podrían ser posibles en el futuro con avances tan rápidos en la industria.

La medida fue aprobada por la asamblea estatal el miércoles y obtuvo la aprobación procesal en el senado estatal. Ahora se dirige al escritorio del gobernador para su firma, aunque no ha indicado su posición al respecto. Gavin Newsom El presidente tiene hasta finales de septiembre para decidir si la convierte en ley, la veta o permite que se convierta en ley sin su firma. A principios de este verano, se negó a opinar sobre la medida, pero había advertido contra la sobrerregulación de la inteligencia artificial.

Los partidarios afirmaron que el proyecto de ley establecería algunas de las primeras normas de seguridad muy necesarias para los modelos de IA a gran escala en Estados Unidos. El proyecto de ley se dirige a los sistemas que requieren más de 100 millones de dólares en datos para su entrenamiento. Ningún modelo de IA actual ha alcanzado ese umbral.

La propuesta, redactada por el senador demócrata Scott Wiener, enfrentó una feroz oposición de las empresas de capital de riesgo y las compañías tecnológicas, incluidas OpenAI, Google y Meta, la empresa matriz de Facebook e Instagram. Dicen que las normas de seguridad deberían ser establecidas por el gobierno federal y que la California La legislación apunta a los desarrolladores en lugar de apuntar a quienes usan y explotan los sistemas de IA para causar daño.

Wiener dijo que su legislación adoptó un enfoque “suave”.

“La innovación y la seguridad pueden ir de la mano, y California está liderando el camino”, dijo en una declaración después de la votación.

La propuesta de Wiener se encuentra entre las docenas de proyectos de ley sobre inteligencia artificial que los legisladores de California propusieron este año para generar confianza pública, combatir la discriminación algorítmica y prohibir las falsificaciones que involucran elecciones o pornografía. En un momento en que la inteligencia artificial afecta cada vez más la vida cotidiana de los estadounidenses, los legisladores estatales han tratado de lograr un equilibrio entre controlar la tecnología y sus riesgos potenciales sin sofocar la floreciente industria local.

California, sede de 35 de las 50 principales empresas de IA del mundo, ha sido una de las primeras en adoptar tecnologías de IA y pronto podría implementar herramientas de IA generativa para abordar la congestión de las carreteras y la seguridad vial, entre otras cosas.

Elon Muskpropietario de Twitter/X y fundador de xAI, apoyó la propuesta esta semana, aunque dijo que era una “decisión difícil”. X opera su propio chatbot y generador de imágenes, Grok, que tiene Menos protecciones implementadas que otros modelos de IA destacados.

“Durante más de 20 años, he defendido la regulación de la IA, del mismo modo que regulamos cualquier producto o tecnología que suponga un riesgo potencial para el público”, tuiteó Musk.

Un grupo de varios miembros de la Cámara de Representantes de California también se opuso al proyecto de ley, y la ex presidenta de la Cámara de Representantes Nancy Pelosi lo calificó de “bien intencionado pero mal informado”.

La Cámara del Progreso, un grupo industrial de tendencia izquierdista financiado por Silicon Valley, dijo que el proyecto de ley está “basado en fantasías de ciencia ficción sobre cómo podría ser la IA”.

“Este proyecto de ley tiene más en común con Blade Runner o Terminator que con el mundo real”, dijo el director de políticas tecnológicas Todd O'Boyle en una declaración después de la votación del miércoles. “No deberíamos paralizar al principal sector económico de California por un escenario teórico”.

La legislación también cuenta con el apoyo de Anthropic, una startup de inteligencia artificial respaldada por Amazon y Google, después de que Wiener ajustara el proyecto de ley a principios de este mes para incluir algunas de las sugerencias de la empresa. El proyecto de ley actual eliminó una disposición sobre la pena de perjurio, limitó el poder del fiscal general del estado para demandar a los infractores y redujo las responsabilidades de una nueva agencia reguladora de la inteligencia artificial.

Anthropic dijo en una carta a Newsom que el proyecto de ley es crucial para prevenir el uso indebido catastrófico de poderosos sistemas de inteligencia artificial y que “sus beneficios probablemente superan sus costos”.

También criticó a principios de esta semana a los críticos por descartar los riesgos catastróficos potenciales de los modelos de IA poderosos como poco realistas: “Si realmente creen que los riesgos son falsos, entonces el proyecto de ley no debería presentar ningún problema”.

Fuente