La empresa de inteligencia artificial Anthropic Ahora respalda un controvertido proyecto de ley conocido como SB 1047, que regularía la IA en California.
En un carta En un comunicado enviado al gobernador de California, Gavin Newsom, el director ejecutivo de Anthropic, Dario Amodei, dijo que los “beneficios del proyecto de ley probablemente superen los costos”. Sin embargo, agregó que “no estamos seguros de esto y todavía hay algunos aspectos del proyecto de ley que nos parecen preocupantes o ambiguos”.
La cautelosa aprobación de Anthropic llega apenas un mes después de que la compañía propusiera una Serie de enmiendas a la SB 1047 — que fue presentado por primera vez a la legislatura estatal por el senador Scott Wiener en febrero.
En una carta enviada a los líderes estatales en julio, Anthropic pidió que se hiciera un mayor hincapié en disuadir a las empresas de construir modelos inseguros en lugar de aplicar leyes estrictas antes de que se produzcan incidentes catastróficos. También sugirió que las empresas pudieran establecer sus propios estándares para las pruebas de seguridad en lugar de adherirse a las regulaciones prescritas por el estado.
Una versión modificada del proyecto de ley publicada el 19 de agosto incluye varias modificaciones. En primer lugar, limita el alcance de las sanciones civiles por infracciones que no resulten en daño o riesgo inminente. según una publicación por Nathan Calvin, asesor principal de políticas del Centro para el Fondo de Acción para la Seguridad de la IA, que es uno de los patrocinadores del proyecto de ley y ha estado trabajando con Anthropic desde que el proyecto de ley se presentó por primera vez.
También hay algunos cambios clave en el lenguaje. Si bien el proyecto de ley originalmente exigía que las empresas demostraran una “garantía razonable” contra posibles daños, ahora exige que demuestren un “cuidado razonable”, lo que “ayuda a aclarar el enfoque del proyecto de ley en las pruebas y la mitigación de riesgos”, según Calvin. También es “el estándar más común existente en materia de responsabilidad civil extracontractual”, escribió.
La versión actualizada también redujo el tamaño de una nueva agencia gubernamental que haría cumplir las regulaciones de IA, antes llamada División de Modelos Fronterizos, a una junta conocida como Junta de Modelos Fronterizos y la colocó dentro de la Agencia de Operaciones Gubernamentales ya existente. Esa junta ahora tiene nueve miembros en lugar de cinco. Sin embargo, con eso, los requisitos de informes para las empresas también han aumentado. Las empresas deben publicar informes de seguridad y enviar versiones sin redactar al fiscal general del estado.
El proyecto de ley actualizado elimina la pena de perjurio, con lo que elimina toda responsabilidad penal para las empresas y sólo impone responsabilidades civiles. Ahora las empresas deben presentar “declaraciones de cumplimiento” al fiscal general en lugar de “certificaciones de cumplimiento” a la División Modelo Fronteriza.
Amodei dijo que el proyecto de ley ahora “nos parece estar a medio camino entre nuestra versión sugerida y el proyecto de ley original”. Los beneficios de desarrollar protocolos de seguridad y protección disponibles al público, mitigar los daños posteriores y obligar a las empresas a cuestionar seriamente los riesgos de sus tecnologías “mejorarán significativamente” la capacidad de la industria para combatir las amenazas.
Anthropic se promociona como una “empresa de seguridad e investigación” y ha ganado algunos premios. 4.000 millones de dólares de apoyo de AmazonEn 2021, un grupo de ex empleados de OpenAI, entre ellos Dario Amodei y su hermana Daniela, iniciaron la empresa porque creían que la IA tendría un impacto dramático en el mundo y querían construir una empresa que se asegurara de que estuviera alineada con los valores humanos.
Wiener se mostró “realmente complacido de ver el tipo de compromiso detallado que Anthropic presentó en su 'carta de apoyo en caso de enmienda'”, dijo Calvin a Business Insider. “Realmente espero que esto aliente a otras empresas a participar también de manera sustancial y a tratar de abordar algunos de estos temas con matices y darse cuenta de que este tipo de falso equilibrio entre innovación y seguridad no va a ser beneficioso para esta industria a largo plazo”.
Otras empresas a las que afectará la nueva legislación se han mostrado más indecisas. OpenAI envió una carta Esta semana, Meta envió un mensaje a los líderes del estado de California que se oponen al proyecto de ley. Una de sus principales preocupaciones era que las nuevas regulaciones expulsarían a las empresas de IA de California. Meta también ha argumentado que el proyecto de ley “desalienta activamente el lanzamiento de IA de código abierto”.