El gobernador de California, Gavin Newsom (D), decisión de vetar Un amplio proyecto de ley sobre inteligencia artificial (IA) ha renovado el debate sobre el futuro de la regulación de la IA, dejando a diferentes sectores de la industria tecnológica en gran medida en desacuerdo sobre cuál es el mejor camino a seguir.
Si bien el veto de Newsom al Proyecto de Ley 1047 del Senado de California puede haber puesto fin a la polémica medida, al menos por ahora, tiene a legisladores estatales, expertos en inteligencia artificial y grupos de defensa de la tecnología en desacuerdo sobre lo que sigue para la tecnología emergente.
Algunos grupos de defensa de la tecnología expresaron rápidamente su decepción con el veto de la SB 1047 (abreviatura de Ley de Innovación Segura para Modelos de Inteligencia Artificial de Frontera), argumentando que California perdió la oportunidad de liderar con regulaciones, las primeras de su tipo, en algunos de los sistemas del país. mayores desarrolladores de IA.
“Esta (SB 1047) fue la primera legislación de este tipo que implementó salvaguardias reales para algunos de los usos potenciales desconocidos más grandes y aterradores de la IA, lo que, en particular, dado el rápido avance de la tecnología, es realmente importante para nosotros. tener esas barandillas en su lugar para seguir adelante”, dijo a The Hill Kaili Lambe, directora de políticas y promoción de Accountable Tech.
La SB 1047 habría requerido que los potentes modelos de IA se sometieran a pruebas de seguridad antes de ser lanzados al público. Las pruebas habrían examinado si estos sistemas podrían ser manipulados por actores maliciosos para causar daños, como piratear la red eléctrica del estado.
También buscaba responsabilizar a los desarrolladores de IA por los daños graves causados por sus modelos, pero solo se habría aplicado a los sistemas de IA cuyo entrenamiento costó más de 100 millones de dólares. No hay modelos actualesHe alcanzado ese número todavía.
Lambe dijo que el fracaso del importante proyecto de ley se refiere a que la regulación y la legislación dadas a menudo avanzan lentamente mientras que la tecnología avanza “rápidamente”.
Landon Klein, director de política estadounidense del Future of Life Institute (FLI), estuvo de acuerdo y afirmó que existe una necesidad oportuna de regulación para mantenerse al día con el rápido desarrollo. FLI es una organización sin fines de lucro centrada en los riesgos existenciales para la sociedad.
“Un año es toda una vida en términos de generaciones de estos sistemas y hay un riesgo considerable en el transcurso de ese año”, dijo. “Y también corremos el riesgo de que se produzca una especie de integración más amplia de la tecnología en toda la sociedad que haga que sea más difícil regularla en el futuro”.
En su mensaje de veto del domingoNewsom dijo que el proyecto de ley tenía “buenas intenciones”, pero “no tiene en cuenta si un sistema de inteligencia artificial se implementa en entornos de alto riesgo, implica la toma de decisiones críticas o el uso de datos confidenciales”.
“En cambio, el proyecto de ley aplica estándares estrictos incluso a las funciones más básicas, siempre y cuando un sistema grande las implemente”, dijo, abogando por un “análisis de trayectoria empírica” de los sistemas de IA y sus capacidades antes de que se pueda encontrar una solución.
El veto parece retrasar el tema, aunque Newsom dijo el domingo El estado planea asociarse con expertos líderes de la industria, incluida la Dra. Fei-Fei Li, conocida como la “madrina de la IA”, para desarrollar barreras de seguridad basadas en un “análisis empírico de trayectoria con base científica”.
Klein sugirió que esta iniciativa podría llegar “demasiado tarde”.
“Para cuando se complete el proceso, al menos una, si no varias, nuevas generaciones de sistemas cada vez más potentes saldrán, todos ellos bajo el mismo tipo de estructura de incentivos de ganancias que ha llevado a muchas de las empresas más grandes a tomar atajos. en materia de seguridad”, afirmó.
Aunque decepcionado, Lambe sugirió que este no es el final del camino para la regulación.
“Realmente vamos a hacer que el gobernador Newsom cumpla su palabra de que continuará tratando de encontrar soluciones aquí”, dijo, y agregó: “Creo que lo que deberían ver en esta próxima sesión legislativa son numerosos proyectos de ley en varios estados que presentan otros marcos de seguridad de la IA, que creo que, con suerte, presionarán al gobierno federal para que también tome medidas”.
Sneha Revanhur, fundadora de Encode Justice –un grupo global de defensa de la juventud– y copatrocinadora de la SB 1047, también enfatizó que los defensores seguirán presionando para lograr una regulación.
“Regresaremos pronto, ya sea en California o en otra etapa, a nivel federal o internacional, regresaremos pronto”, dijo a The Hill.
El proyecto de ley captó la atención nacional durante las últimas semanas y, junto con el veto de Newsom, Revanhur y otros creen que está generando conciencia sobre el impulso a la regulación.
“La gente está viendo los riesgos globales de esta batalla política. Y creo que eso, en sí mismo, es un logro notable, y significa que el movimiento de seguridad de la IA realmente está ganando impulso y ganando terreno. Y quiero decir que simplemente somos nosotros los que estamos construyendo las bases para nuestra próxima victoria”, dijo.
El senador del estado de California Scott Wiener (D), autor de la SB 1047, calificó el veto como un “revés”, pero dijo que la lucha por el proyecto de ley “avanzó dramáticamente la cuestión de la seguridad de la IA en el escenario internacional”.
Mientras tanto, algunos expertos en inteligencia artificial o software advierten contra el impulso a favor de la regulación y aplaudieron la decisión de Newsom de vetar el proyecto de ley.
Algunos dijeron a The Hill que se necesita más evidencia antes de que los legisladores comiencen a poner barreras a la tecnología. Esto incluye más investigaciones sobre los riesgos específicos del desarrollo de la IA y la respuesta más efectiva cuando se identifican, dijeron los expertos.
Esta es la gran pregunta con la que luchan la industria y la academia ”, dijo Daniel Castro, vicepresidente de la Fundación Información e Innovación.
“¿Cómo probamos estos sistemas? ¿Cómo los evaluamos? Crear una ley que requiera esto en este momento fue definitivamente… poner el carro delante del caballo”, dijo.
El último debate sobre la SB 1047 es sólo una de muchas conversaciones sobre cómo regular la IA. Newsom firmó una serie de otros proyectos de ley regulatorios de IA Este mes tenía como objetivo prevenir los abusos de la IA, incluidos los deepfakes sexuales explícitos. A nivel federal, hay más de 100 billetes presentada en el Congreso, que tendrá menos de dos meses para aprobar la legislación al regresar del receso en noviembre.
Una forma de comenzar el proceso de regulación es fomentando la IA de código abierto, lo que significa que los desarrolladores hacen públicos tanto los modelos como los datos que contienen, sugirió el profesor de robótica, ingeniería eléctrica e informática de la Universidad de Michigan, Jason Corso.
“Creo que se requiere la voluntad de compartir no sólo los modelos resultantes, sino también los datos que se incluyeron en ellos, para que podamos comprender mejor esas relaciones”, dijo Corso, quien también es cofundador y director ejecutivo de la startup de visión por computadora Voxel 51. .
“Requiere la necesidad de herramientas aún mejores, análisis de modelos y conjuntos de datos, y espero ver un mecanismo de seguridad impulsado por la comunidad sin la necesidad de un mecanismo gubernamental. Pero sospecho que habrá más legislación en el futuro si la comunidad no puede hacerlo”.
“Se trata de una legislación ambiciosa y no habría funcionado”, afirmó Matt Calks, cofundador y director ejecutivo de la empresa de software y computación en la nube Appian. “Y para lograr una legislación efectiva, primero debemos comprender la IA en nuestra sociedad, qué es esta tecnología, qué se puede esperar de ella, cuáles son sus límites, por lo que solo necesitamos más información. Necesitamos transparencia. Yo empezaría por ahí”.