Ex investigadores de OpenAI critican la postura de la empresa sobre el proyecto de ley de seguridad de la IA

Dos ex investigadores de OpenAI se manifiestan en contra de la oposición de la empresa a SB 1047, un proyecto de ley propuesto en California que implementaría estrictos protocolos de seguridad en el desarrollo de IA, incluido un “interruptor de apagado”.

Los ex empleados escribieron en un carta Primero compartido con Politico Al gobernador de California, Gavin Newsom, y a otros legisladores les dijo que la oposición de OpenAI al proyecto de ley es decepcionante pero no sorprendente.

“Nos unimos a OpenAI porque queríamos garantizar la seguridad de los increíblemente potentes sistemas de inteligencia artificial que la empresa está desarrollando”, escribieron en la carta los investigadores William Saunders y Daniel Kokotajlo. “Pero renunciamos a OpenAI porque perdimos la confianza en que desarrollaría sus sistemas de inteligencia artificial de forma segura, honesta y responsable”.

Saunders y Kokotajlo no respondieron de inmediato a las solicitudes de comentarios de Business Insider.

Continuaron: “Desarrollar modelos de IA de frontera sin la información adecuada Precauciones de seguridad plantea riesgos previsibles de daños catastróficos para el público”.

El director ejecutivo de OpenAI, Sam Altman, ha apoyado reiterada y públicamente el concepto de regulación de la IA, escribieron Saunders y Kokotajlo, citando a Altman. Testimonio ante el Congreso pidiendo la intervención del gobierno, pero “cuando la regulación real está sobre la mesa, se opone”.

Un portavoz de IA abierta le dijo a BI en una declaración: “Estamos totalmente en desacuerdo con la caracterización errónea de nuestra posición sobre SB 1047”. El portavoz dirigió a BI a un comunicado separado. carta escrito por el director de estrategia de OpenAI, Jason Kwon, al senador de California Scott Wiener, quien presentó el proyecto de ley, explicando la oposición de la empresa.

La SB1047 “ha inspirado un debate reflexivo” y OpenAI apoya algunas de sus disposiciones de seguridad, según se lee en la carta de Kwon, fechada un día antes de que se enviara la carta de los investigadores. Sin embargo, debido a las implicaciones de seguridad nacional del desarrollo de la IA, la empresa cree que la regulación debería “modelarse e implementarse a nivel federal”.

“Un conjunto de políticas de IA impulsadas a nivel federal, en lugar de un mosaico de leyes estatales, fomentará la innovación y posicionará a Estados Unidos para liderar el desarrollo de estándares globales”, se lee en la carta de Kwon.

Pero Saunders y Kokotajlo no están convencidos de que la presión a favor de una legislación federal sea la única razón por la que OpenAI se opone a la SB 1047 de California, diciendo que las quejas de la compañía sobre el proyecto de ley “no son constructivas y no parecen de buena fe”.

“No podemos esperar a que el Congreso actúe; han dicho explícitamente que no están dispuestos a aprobar Regulación significativa de la IA“, escribieron Saunders y Kokotajlo. “Si alguna vez lo hacen, puede invalidar la legislación de California”.

Los ex empleados de OpenAI concluyeron: “Esperamos que la Legislatura de California y el Gobernador Newsom hagan lo correcto y aprueben la ley SB 1047. Con la regulación adecuada, esperamos que OpenAI pueda cumplir con su declaración de misión de desarrollar IAG de manera segura”.

Los representantes de Wiener y Newsom no respondieron de inmediato a las solicitudes de comentarios de BI.