Silicon Valley se manifiesta enérgicamente contra un proyecto de ley sobre seguridad de la inteligencia artificial

Desde que comenzó el auge de la IA, la atención sobre esta tecnología se ha centrado no solo en su potencial para cambiar el mundo, sino también en los temores de que pueda salir mal. Un grupo de los denominados agoreros de la IA ha sugerido que la inteligencia artificial podría volverse lo suficientemente poderosa como para provocar una guerra nuclear o permitir ciberataques a gran escala. Incluso los principales líderes de la industria de la IA han dicho que la tecnología es tan peligrosa que necesita una regulación estricta.

Un proyecto de ley de alto perfil en California está intentando hacer eso. La ley propuesta, Proyecto de ley 1047 del SenadoEl proyecto de ley, presentado por el senador estatal Scott Wiener en febrero, pretende evitar los peores efectos posibles de la IA al exigir a las empresas que tomen ciertas precauciones de seguridad. Wiener se opone a cualquier caracterización de este proyecto de ley como un desastre catastrófico. “La IA tiene el potencial de hacer del mundo un lugar mejor”, me dijo ayer. “Pero, como ocurre con cualquier tecnología poderosa, conlleva beneficios y también riesgos”.

La SB 1047 somete a todo modelo de IA cuyo entrenamiento cueste más de 100 millones de dólares a una serie de normas de seguridad. Según la ley propuesta, las empresas que fabrican esos modelos tendrían que presentar un plan que describa sus protocolos para gestionar el riesgo y aceptar auditorías anuales de terceros, y tendrían que poder apagar la tecnología en cualquier momento, lo que en esencia implicaría la instalación de un interruptor de apagado. Las empresas de IA podrían enfrentarse a multas si su tecnología causa “daños críticos”.

El proyecto de ley, que se votará en los próximos días, ha encontrado una intensa resistencia. Empresas tecnológicas como Meta, Google y OpenAI han expresado su preocupación. Discutirmi que el proyecto de ley sofocará la innovación, responsabilizará a los desarrolladores por los abusos de los usuarios e impulsará el negocio de la IA fuera de californiaLa semana pasada, ocho miembros demócratas del Congreso escribieron Una carta al gobernador Gavin Newsomseñalando que, aunque es “algo inusual” que opinen sobre la legislación estatal, se sintieron obligados a hacerlo. En la carta, los miembros temen que el proyecto de ley se centre demasiado en los efectos más graves de la IA y “cree riesgos innecesarios para la economía de California con muy pocos beneficios para la seguridad pública”. Instaron a Newsom a vetarlo, en caso de que se apruebe. Para colmo, Nancy Pelosi intervino por separado el viernes, calificando el proyecto de ley de “bien intencionado pero enfermo informado.”

En parte, el debate sobre el proyecto de ley se centra en una cuestión central de la IA: ¿esta tecnología acabará con el mundo o la gente ha estado viendo demasiada ciencia ficción? En el centro de todo esto está Wiener. Como tantas empresas de IA tienen su sede en California, el proyecto de ley, si se aprueba, podría tener importantes implicaciones a nivel nacional. Ayer me reuní con el senador estatal para hablar sobre lo que él describe como su “política dura” de este proyecto de ley y si realmente cree que la IA es capaz de volverse rebelde y lanzar armas nucleares.

Nuestra conversación ha sido condensada y editada para mayor claridad.


Carolina Mimbs Nyce: ¿Cómo llegó a ser tan polémico este proyecto de ley?

Scott Wiener: Siempre que se intenta regular cualquier sector de cualquier manera, incluso de forma poco estricta (y esta legislación es así), se van a encontrar resistencias. Y en particular en el sector tecnológico. Se trata de un sector que se ha acostumbrado muchísimo a no estar regulado en aras del interés público. Y lo digo como alguien que ha apoyado el sector tecnológico en San Francisco durante muchos años; no estoy en absoluto en contra de la tecnología. Pero también tenemos que tener en cuenta el interés público.

No es de extrañar en absoluto que haya habido resistencia, y la respeto. Eso es democracia. No respeto parte del alarmismo y la desinformación que Andreessen Horowitz y otros han estado difundiendo. extensión alrededor. (Nota del editor: Andreessen Horowitz, también conocido como a16z, no respondió a una solicitud de comentarios).

Nueva York: ¿Qué es lo que en particular te molesta?

Viena: La gente decía a los fundadores de empresas emergentes que la SB 1047 los enviaría a prisión si su modelo causaba algún daño imprevisto, lo cual era completamente falso e inventado. Dejando de lado el hecho de que el proyecto de ley no se aplica a las empresas emergentes (hay que gastar más de 100 millones de dólares en entrenar el modelo para que el proyecto de ley se aplique a uno), el proyecto de ley no va a enviar a nadie a prisión. Ha habido algunas declaraciones inexactas en torno al código abierto.

Estos son solo un par de ejemplos. Hay muchas imprecisiones, exageraciones y, a veces, tergiversaciones sobre el proyecto de ley. Escuche: no soy ingenuo. Vengo de la política de San Francisco. Estoy acostumbrado a la política dura. Y esto es política dura.

Nueva York: También ha recibido críticas de políticos a nivel nacional. ¿Qué opina de la carta de los ocho miembros del Congreso?

Viena: Por mucho que respete a los firmantes de la carta, estoy respetuosa y firmemente en desacuerdo con ellos.

En un mundo ideal, todo esto debería gestionarse a nivel federal. Todo. Cuando redacté la ley de neutralidad de la red de California en 2018, dejé muy claro que no me importaría cerrar el negocio si el Congreso aprobaba una ley de neutralidad de la red sólida. Aprobamos esa ley en California y aquí estamos, seis años después; el Congreso aún no ha promulgado una ley de neutralidad de la red.

Si el Congreso sigue adelante y logra aprobar una ley federal sólida de seguridad de la inteligencia artificial, será fantástico. Pero no contengo la respiración, dados los antecedentes.

Nueva York: Analicemos algunas de las críticas populares a este proyecto de ley. La primera es que requiere un perspectiva fatalista¿De verdad crees que la IA podría estar involucrada en el “creación y uso” de armas nucleares?

Viena: Para que quede claro, este no es un proyecto de ley catastrófico. La oposición afirma que el proyecto de ley se centra en los “riesgos de la ciencia ficción”. Están tratando de decir que cualquiera que apoye este proyecto de ley es catastrófico y está loco. Este proyecto de ley no trata de los “riesgos de la ciencia ficción”. Terminador riesgo. Este proyecto de ley se refiere a daños enormes y bastante tangibles.

Si hablamos de un modelo de IA que apaga la red eléctrica o altera el sistema bancario de forma importante (y que hace que sea mucho más fácil para los actores maliciosos hacer esas cosas), se trata de daños importantes. Sabemos que hay personas que están tratando de hacer eso hoy en día, y a veces lo están logrando, de manera limitada. Imaginemos si se vuelve mucho más fácil y eficiente.

En lo que respecta a las armas químicas, biológicas, radiológicas y nucleares, no estamos hablando de lo que se puede aprender en Google, sino de si será mucho más fácil y eficiente hacerlo con una IA.

Nueva York: La siguiente crítica a su proyecto de ley tiene que ver con los daños: no aborda los daños reales de la IA, como la pérdida de empleos y los sistemas sesgados.

Viena: Se trata de un clásico ejemplo de “qué pasa con eso”. La IA conlleva diversos riesgos: falsificaciones profundas, discriminación algorítmica, pérdida de empleo, desinformación. Todos estos son daños que deberíamos abordar y que deberíamos intentar evitar que ocurran. Tenemos proyectos de ley que están avanzando para hacerlo. Pero, además, deberíamos intentar adelantarnos a estos riesgos catastróficos para reducir la probabilidad de que ocurran.

Nueva York: Este es uno de los primeros proyectos de ley importantes sobre regulación de la IA que atrae la atención nacional. Me gustaría saber cuál ha sido su experiencia y qué ha aprendido.

Viena: Definitivamente he aprendido mucho sobre las facciones de IA, a falta de un mejor término: la altruistas eficaces y eficaz aceleracionistasEs como los Jets y los Sharks.

Como es la naturaleza humana, ambos bandos se caricaturizan mutuamente y tratan de demonizarse. Los aceleracionistas eficaces clasificarán a los altruistas eficaces como catastrofistas dementes. Algunos de los altruistas eficaces clasificarán a todos los aceleracionistas eficaces como libertarios extremos. Por supuesto, como sucede con la existencia humana y las opiniones humanas, se trata de un espectro.

Nueva York: No pareces demasiado frustrado, considerando todo.

Viena: Este proceso legislativo, aunque me frustran algunas de las declaraciones inexactas que se hacen sobre el proyecto de ley, ha sido en realidad, en muchos sentidos, un proceso muy reflexivo, con mucha gente con opiniones muy reflexivas, independientemente de si estoy de acuerdo o no con ellas. Es un honor para mí ser parte de un proceso legislativo en el que tanta gente se preocupa, porque el tema es realmente importante.

Cuando la oposición se refiere a los riesgos de la IA como “ciencia ficción”, sabemos que no es así, porque si realmente pensaran que el riesgo es ciencia ficción, no se opondrían al proyecto de ley. No les importaría, ¿verdad? Porque todo sería inventado. Pero no es ciencia ficción inventada. Es real.

Fuente