¿Puede Estados Unidos regular significativamente la IA? No está del todo claro todavía. Los formuladores de políticas han logrado avances en los últimos meses, pero también han tenido reveses, lo que ilustra la naturaleza desafiante de las leyes que imponen barreras a la tecnología.
En marzo, Tennessee convertirse el primer estado en proteger a los locutores de la clonación no autorizada de IA. Este verano, Colorado adoptado un enfoque escalonado y basado en el riesgo para la política de IA. Y en septiembre, el gobernador de California, Gavin Newsom, firmó docenas de proyectos de ley de seguridad relacionados con la IA, algunos de los cuales exigen que las empresas revelen detalles sobre sus entrenamiento de IA.
Pero Estados Unidos todavía carece de una política federal de IA comparable a la Ley de IA de la UE. Incluso a nivel estatal, la regulación sigue encontrando obstáculos importantes.
Después de una prolongada batalla con intereses especiales, el gobernador Newsom vetado factura SB 1047una ley que habría impuesto amplios requisitos de seguridad y transparencia a las empresas que desarrollan IA. Otro proyecto de ley de California dirigido a los distribuidores de deepfakes de IA en las redes sociales fue permaneció este otoño a la espera del resultado de una demanda.
Sin embargo, hay motivos para el optimismo, según Jessica Newman, codirectora del AI Policy Hub de UC Berkeley. Hablando en un panel sobre gobernanza de la IA en TechCrunch interrumpe 2024Newman señaló que es posible que muchos proyectos de ley federales no se hayan redactado teniendo en cuenta la IA, pero aún se aplican a la IA, como la legislación contra la discriminación y la protección del consumidor.
“A menudo escuchamos que Estados Unidos es una especie de 'Salvaje Oeste' en comparación con lo que sucede en la UE”, dijo Newman, “pero creo que eso es exagerado y la realidad tiene más matices que eso”.
Para Newman, la Comisión Federal de Comercio ha forzado empresas recopilan datos subrepticiamente para eliminar sus modelos de IA, y es investigando si las ventas de nuevas empresas de IA a grandes empresas tecnológicas violan la regulación antimonopolio. Mientras tanto, la Comisión Federal de Comunicaciones ha declarado Las llamadas automáticas con voz de IA son ilegales y se ha promulgado una regla para que el contenido generado por IA en la publicidad política sea revelado.
El presidente Joe Biden también ha intentado que ciertas reglas de IA se incluyan en los libros. Hace aproximadamente un año, Biden firmado la Orden Ejecutiva de IA, que respalda las prácticas voluntarias de informes y evaluación comparativa que muchas empresas de IA ya estaban optando por implementar.
Una consecuencia de la orden ejecutiva fue el Instituto de Seguridad de la IA de EE. UU. (AISI), un organismo federal que estudia los riesgos en los sistemas de IA. Operando dentro del Instituto Nacional de Estándares y TecnologíaAISI tiene asociaciones de investigación con importantes laboratorios de inteligencia artificial como OpenAI y Anthropic.
Sin embargo, el AISI podría liquidarse con una simple derogación de la orden ejecutiva de Biden. En octubre, un coalición de más de 60 organizaciones pidieron al Congreso que promulgue una legislación que codifique el AISI antes de fin de año.
“Creo que todos nosotros, como estadounidenses, compartimos el interés de asegurarnos de mitigar los posibles inconvenientes de la tecnología”, dijo la directora de AISI, Elizabeth Kelly, que también participó en el panel.
Entonces, ¿hay esperanzas de una regulación integral de la IA en Estados Unidos? El fracaso de la SB 1047, que Newman describió como un proyecto de ley “ligero” con aportes de la industria, no es precisamente alentador. Escrito por el senador del estado de California Scott Wiener, la SB 1047 encontró la oposición de muchos en Silicon Valley, incluidos tecnólogos de alto perfil como el científico jefe de inteligencia artificial de Meta, Yann LeCun.
Siendo este el caso, Wiener, otro panelista de Disrupt, dijo que no habría redactado el proyecto de ley de otra manera, y confía en que eventualmente prevalecerá una regulación amplia de la IA.
“Creo que sentó las bases para esfuerzos futuros”, dijo. “Con suerte, podemos hacer algo que pueda unir a más personas, porque la realidad que todos los grandes laboratorios ya han reconocido es que los riesgos (de la IA) son reales y queremos realizar pruebas para detectarlos”.
De hecho, Anthropic la semana pasada. prevenido de catástrofe de la IA si los gobiernos no implementan regulaciones en los próximos 18 meses.
Los opositores sólo han redoblado su retórica. El lunes pasado, el fundador de Khosla Ventures, Vinod Khosla llamado Wiener está “totalmente despistado” y “no cualificado” para regular los peligros reales de la IA. Y Microsoft y Andreessen Horowitz lanzaron un declaración manifestándose contra las regulaciones de IA que podrían afectar sus intereses financieros.
Newman plantea, sin embargo, que la presión para unificar el creciente mosaico de reglas de IA estado por estado conducirá en última instancia a una solución legislativa más sólida. En lugar de consenso sobre un modelo de regulación, los formuladores de políticas estatales han introducido Sólo este año se aprobaron cerca de 700 leyes sobre IA.
“Mi sensación es que las empresas no quieren un entorno de sistema regulatorio fragmentado en el que cada estado sea diferente”, dijo, “y creo que habrá una presión cada vez mayor para tener algo a nivel federal que brinde más claridad y reduzca algunos de esa incertidumbre”.