FPocos lugares del mundo tienen más que ganar con una industria floreciente de inteligencia artificial que California. Pocos tienen también más que perder si la confianza del público en la industria se ve destrozada de repente.
En mayo, el Senado de California aprobado SB 1047, una pieza de legislación de seguridad de IA, en una votación de 32 a uno, ayuda a garantizar el desarrollo seguro de sistemas de IA a gran escala a través de estándares de seguridad claros, predecibles y de sentido común. El proyecto de ley ya está programado para votación en la asamblea estatal esta semana y, si se convierte en ley por Gobernador Gavin Newsomrepresentaría un paso significativo para proteger a los ciudadanos de California y a la creciente industria de inteligencia artificial del estado contra el uso malicioso.
El lunes por la tarde, Elon Musk sorprendió a muchos al anunciar su apoyo al proyecto de ley en un Publicar en X“Es una decisión difícil y molestará a algunas personas, pero, considerando todo, creo que California probablemente debería aprobar el proyecto de ley SB 1047 sobre seguridad de la IA”, escribió. “Durante más de 20 años, he defendido la regulación de la IA, al igual que regulamos cualquier producto o tecnología que sea un riesgo potencial para el público”.
El mensaje apareció días después de que hablara con Musk sobre la SB 1047. A diferencia de otros líderes corporativos que suelen dudar y consultan a sus equipos de relaciones públicas y abogados antes de adoptar una postura sobre la legislación de seguridad, Musk era diferente. Después de que le expliqué la importancia del proyecto de ley, solicitó revisar su texto para asegurarse de que fuera justo y no tuviera potencial de abuso. Al día siguiente, se manifestó a favor. Este rápido proceso de toma de decisiones es un testimonio de la defensa de larga data de Musk de una regulación responsable de la IA.
El invierno pasado, el senador Scott Weiner, creador del proyecto de ley, se puso en contacto con el Fondo de Acción del Centro para la Seguridad de la IA (CAIS) para obtener sugerencias técnicas y copatrocinio. Como fundador del CAIS, mi compromiso con las tecnologías transformadoras que afectan a la seguridad pública es la piedra angular de nuestra misión. Para preservar la innovación, debemos anticiparnos a los posibles obstáculos, porque es mejor prevenir que curar. Reconociendo la naturaleza innovadora de la SB 1047, nos encantó ayudar y hemos abogado por su adopción desde entonces.
Leer más: Exclusivo: Proyecto de ley de California propone regular la IA a nivel estatal
Dirigido a los modelos de inteligencia artificial más avanzados, requerirá que las grandes empresas realicen pruebas para detectar peligros, implementen salvaguardas, garanticen capacidades de apagado, protejan a los denunciantes y gestionen los riesgos. Estas medidas tienen como objetivo prevenir los ciberataques a la infraestructura crítica, la bioingeniería de virus u otras actividades maliciosas con el potencial de causar una destrucción generalizada y muchas víctimas.
Antrópico advertido recientemente que los riesgos de la IA podrían surgir en “tan solo 1 a 3 años”, lo que desmiente a los críticos que consideran que las preocupaciones de seguridad son imaginarias. Por supuesto, si estos riesgos son realmente ficticios, los desarrolladores no deberían temer responsabilidades. Además, los desarrolladores se han comprometido a abordar estos problemas, alineándose con el presidente Joe Biden. Orden ejecutiva recientese reafirmó en la Cumbre de IA de Seúl de 2024.
La aplicación de la ley es austera por diseño, lo que permite al fiscal general de California actuar solo en casos extremos. No hay requisitos de licencia para los nuevos modelos, ni castiga los errores involuntarios ni penaliza el código abierto (la práctica de poner a disposición de forma gratuita el código fuente del software). No fue redactado por las grandes empresas tecnológicas ni por quienes se centran en escenarios futuros lejanos. El proyecto de ley tiene como objetivo evitar que los laboratorios de vanguardia descuiden la precaución y las salvaguardas críticas en su prisa por lanzar los modelos más capaces.
Al igual que la mayoría de los investigadores en materia de seguridad de la IA, en gran medida me mueve la creencia en su inmenso potencial para beneficiar a la sociedad y me preocupa profundamente preservar ese potencial. Como líder mundial en IA, California también lo está. Esta preocupación compartida es la razón por la que los políticos estatales y los investigadores en materia de seguridad de la IA están entusiasmados con la SB 1047, ya que la historia nos dice que un desastre importante, como el nuclear de Three Mile Island el 28 de marzo de 1979, podría hacer retroceder décadas a una industria en auge.
Los organismos reguladores respondieron a la fusión nuclear parcial revisando las normas y protocolos de seguridad nuclear. Estos cambios aumentaron los costos operativos y la complejidad de la gestión de las plantas nucleares, ya que los operadores invirtieron en nuevos sistemas de seguridad y cumplieron con una supervisión rigurosa. Los desafíos regulatorios hicieron que la energía nuclear perdiera atractivo, deteniendo su expansión durante los siguientes 30 años.
El accidente de Three Mile Island provocó una mayor dependencia del carbón, el petróleo y el gas natural. A menudo se sostiene que se perdió una oportunidad importante para avanzar hacia una infraestructura energética global más sostenible y eficiente. Si bien no se sabe con certeza si unas normas más estrictas podrían haber evitado el incidente, es evidente que un solo suceso puede afectar profundamente la percepción pública y sofocar el potencial a largo plazo de toda una industria.
Algunas personas ven con recelo cualquier acción gubernamental contra la industria, considerándola inherentemente perjudicial para los negocios, la innovación y la competitividad de un estado o país. Three Mile Island demuestra que esta perspectiva es miope, ya que las medidas para reducir las posibilidades de un desastre suelen ser beneficiosas a largo plazo para las industrias emergentes. Tampoco es la única advertencia para la industria de la IA.
Cuando surgieron las plataformas de redes sociales, se las recibió en gran medida con entusiasmo y optimismo. Un informe del Centro de Investigaciones Pew de 2010 encuesta Se descubrió que el 67% de los adultos estadounidenses que utilizaban las redes sociales creían que tenían un impacto mayoritariamente positivo. El futurista Brian Solis captó este espíritu cuando proclamó: “Las redes sociales son la nueva forma de comunicarse, la nueva forma de construir relaciones, la nueva forma de crear empresas y la nueva forma de construir un mundo mejor”.
Tenía tres cuartas partes de razón.
Impulsada por las preocupaciones sobre las violaciones de la privacidad, la desinformación y los impactos en la salud mental, la percepción pública de las redes sociales ha cambiado. 64% de los estadounidenses viéndolo negativamente. Escándalos como Cambridge Analytica La confianza se erosionó, mientras que las noticias falsas y el contenido polarizador resaltaron el papel de las redes sociales en la división social. Una Sociedad Real de Salud Pública estudiar Un estudio mostró que el 70% de los jóvenes sufrieron acoso cibernético y que el 91% de los jóvenes de entre 16 y 24 años afirmó que las redes sociales dañaban su bienestar mental. Los usuarios y los responsables de las políticas en todo el mundo se muestran cada vez más expresos respecto de la necesidad de que las empresas de redes sociales apliquen regulaciones más estrictas y una mayor rendición de cuentas.
Esto no sucedió porque las empresas de redes sociales sean singularmente malvadas. Al igual que otras industrias emergentes, los primeros días fueron un “salvaje oeste” en el que las empresas se apresuraron a dominar un mercado floreciente y faltaba regulación gubernamental. adictivoa menudo contenido dañino prosperóy ahora todos estamos pagando el precio, incluidas las empresas, cada vez más desconfiadas por los consumidores y que están en la mira de los reguladores, los legisladores y los tribunales.
El optimismo que rodeaba a las redes sociales no era infundado. La tecnología tenía el potencial de derribar barreras geográficas y fomentar un sentido de comunidad global, democratizar la información y facilitar movimientos sociales positivos. Como dice el autor Erik Qualman advirtió“No tenemos elección sobre si usamos o no las redes sociales, la cuestión es qué tan bien lo hacemos”.
La pérdida del potencial de las redes sociales y de la energía nuclear fue trágica, pero no es nada en comparación con el despilfarro del potencial de la inteligencia artificial. Una legislación inteligente como la SB 1047 es nuestra mejor herramienta para evitarlo y, al mismo tiempo, proteger la innovación y la competencia.
La historia de la regulación tecnológica muestra nuestra capacidad de previsión y adaptabilidad. Cuando los ferrocarriles transformaron el transporte del siglo XIX, los gobiernos estandarizaron los anchos de vía, la señalización y los protocolos de seguridad. La llegada de la electricidad dio lugar a códigos y normas para prevenir incendios y electrocuciones. La revolución del automóvil hizo necesarias leyes de tránsito y medidas de seguridad como cinturones de seguridad y airbags. En la aviación, organismos como la FAA establecieron rigurosas normas de seguridad, convirtiendo el avión en la forma de transporte más segura.
La historia sólo puede darnos lecciones. De nosotros depende si debemos prestarles atención o no.