OpenAI está contratando a alguien para investigar a sus propios empleados

En OpenAI, la amenaza a la seguridad puede provenir del interior de la casa. Recientemente, la empresa… publicó una oferta de trabajo para que un investigador técnico de riesgos internos “fortalezca nuestra organización contra amenazas a la seguridad interna”.

El anuncio dice que las tareas del puesto incluyen analizar actividades anómalas, detectar y mitigar amenazas internas y trabajar con los departamentos de Recursos Humanos y legales para “realizar investigaciones sobre actividades sospechosas”.

Un portavoz de OpenAI dijo que la empresa no hace comentarios sobre ofertas de trabajo.

OpenAI ya está en el centro de un acalorado debate sobre IA y seguridad. Empleados de OpenAI y Legisladores estadounidenses han expresado su preocupación sobre si la empresa está haciendo lo suficiente para garantizar que sus poderosas tecnologías no se utilicen para causar daños.

Al mismo tiempo, OpenAI ha dicho que ha visto actores afiliados al estado de China, Rusiay Irán La empresa afirma que ha interrumpido estas acciones y ha cancelado las cuentas asociadas a las partes implicadas.

El propio OpenAI se convirtió en el objetivo de actores maliciosos en 2023 cuando Los piratas informáticos violaron su sistema de mensajería internaun incidente que salió a la luz después de que dos personas filtraran información a The New York Times.

Además de los grupos de hackers y los gobiernos autoritarios, esta publicación de trabajo parece indicar que OpenAI está preocupado por las amenazas que se originan en sus propios empleados, aunque no está claro exactamente qué tipo de amenaza está buscando OpenAI.

Una posibilidad es que la empresa esté buscando proteger los secretos comerciales que sustentan su tecnología. La publicación indica que la contratación de un investigador de riesgos interno por parte de OpenAI es parte de la Compromisos voluntarios sobre seguridad de la IA que asumió ante la Casa Blancauna de las cuales era invertir en “protecciones contra amenazas internas para proteger los pesos de los modelos propietarios y no publicados”.

En una carta abierta En junio pasado, empleados actuales y antiguos de OpenAI dijeron que se sentían impedidos de expresar sus preocupaciones sobre la seguridad de la IA. La carta instaba a OpenAI a garantizar un “derecho a advertir” al público sobre los peligros de los productos de OpenAI. No está claro si este tipo de denuncia estará cubierta por los “controles de prevención de pérdida de datos” que el investigador de riesgos será responsable de implementar.