Por qué cada vez es más difícil confiar en OpenAI

Hay espeluznantes guardias de seguridad encubiertos afuera su oficina. Acaba de nombrar a un ex director de la NSA para su junta directiva. Y su grupo de trabajo interno destinado a promover el uso seguro de la inteligencia artificial se ha disuelto efectivamente.

OpenAI se siente un poco menos abierto cada día.

En su último movimiento sorprendente, la compañía dijo el viernes había nombrado al ex director de la NSA, Paul Nakasone, miembro de su junta directiva.

Además de dirigir la NSA, Nakasone era el jefe del Comando Cibernético de EE. UU., la división de ciberseguridad del Departamento de Defensa. OpenAI dice que la contratación de Nakasone representa su “compromiso con la seguridad” y enfatiza la importancia de la ciberseguridad a medida que la IA continúa evolucionando.

“La dedicación de OpenAI a su misión se alinea estrechamente con mis propios valores y experiencia en el servicio público”, dijo Nakasone en un comunicado. “Espero contribuir a los esfuerzos de OpenAI para garantizar que la inteligencia artificial general sea segura y beneficiosa para las personas de todo el mundo”.

Pero los críticos temen que la contratación de Nakasone pueda representar algo más: vigilancia.

Edward Snowden, el denunciante estadounidense que documentos clasificados filtrados sobre vigilancia en 2013, dijo en un publicar en X que la contratación de Nakasone fue una “traición calculada a los derechos de cada persona en la Tierra”.

“Se han quitado la máscara por completo: nunca confíen en OpenAI o sus productos (ChatGPT, etc.)”, escribió Snowden.

En otro comenta en XSnowden dijo que “la intersección de la IA con el océano de datos de vigilancia masiva que se ha estado acumulando durante las últimas dos décadas pondrá poderes verdaderamente terribles en manos de unos pocos que no rinden cuentas”.

El senador Mark Warner, demócrata de Virginia y jefe del Comité de Inteligencia del Senado, por otro lado, describió la contratación de Nakasone como un “gran logro”.

“No hay nadie en la comunidad de seguridad, en general, que sea más respetado”, dijo Warner. le dijo a axios.

La experiencia de Nakasone en seguridad puede ser necesaria en OpenAI, donde a los críticos les preocupa que los problemas de seguridad puedan exponerlo a ataques.

OpenAI despidió al ex miembro de la junta directiva Leopold Aschenbrenner en abril después de que envió un memorando que detalla un “incidente de seguridad importante.” Describió la seguridad de la empresa como “extremadamente insuficiente” para proteger contra robos por parte de actores extranjeros.

Poco después, el equipo de superalineación de OpenAI, que se centraba en desarrollar sistemas de IA compatibles con los intereses humanos, se desintegró abruptamente después de que dos de las empresas Los investigadores de seguridad más destacados renuncian.

Jan Leike, uno de los investigadores salientes, dijo que había estado “en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la compañía durante bastante tiempo”.

Ilya Sutskever, el científico jefe de OpenAI que inicialmente lanzó el equipo de superalineación, se mostró más reticente acerca de sus razones para irse. Pero expertos de la empresa dijeron había estado en terreno inestable debido a su papel en el fallido derrocamiento del CEO Sam Altman. Sutskever desaprobó el enfoque agresivo de Altman hacia el desarrollo de la IA, que alimentó su lucha por el poder.

Y si todo eso no fuera suficiente, incluso los locales que viven y trabajan cerca de la oficina de OpenAI en San Francisco dicen que la compañía está empezando a asustarlos. Un cajero de una tienda de mascotas vecina dijo El estándar de San Francisco que la oficina tiene un “ambiente reservado”.

Varios trabajadores de empresas vecinas dicen que afuera del edificio hay hombres que parecen guardias de seguridad encubiertos, pero no dicen que trabajan para OpenAI.

“(OpenAI) no es un mal vecino”, dijo uno. “Pero son reservados”.

Fuente