Otro investigador de seguridad abandona OpenAI
  • Miles Brundage, que asesora a los líderes de OpenAI en materia de seguridad y políticas, anunció su salida.
  • Dijo que dejaba la empresa para tener más independencia y libertad para publicar.
  • El equipo de preparación de AGI que supervisó se disolverá.

Miles Brundage, asesor senior de políticas y jefe del equipo de preparación de AGI en OpenAI, dejará la empresa. Anunció la decisión el miércoles en un publicar en X, que estuvo acompañada de un Artículo de subpila explicando la decisión. El equipo de AGI Readiness que supervisó se disolverá y sus diversos miembros se distribuirán entre otras partes de la empresa.

Brundage es el último investigador de seguridad de alto perfil en dejar OpenAI. En mayo, la empresa disolvió su equipo de Superalignmentque se centró en los riesgos de la superinteligencia artificial, tras la salida de sus dos líderes, Jan Leike e Ilya Sutskever. Otros ejecutivos que se han ido en los últimos meses son Mira Muratisu director de tecnología; Bob McGrew, su director de investigaciones; y Barret Zoph, vicepresidente de investigación.

OpenAI no respondió a una solicitud de comentarios.

Durante los últimos seis años, Brundage ha asesorado a los ejecutivos y miembros de la junta directiva de OpenAI sobre cómo prepararse para el surgimiento de una inteligencia artificial que rivaliza con la inteligencia humana, algo que muchos expertos creen que podría transformar fundamentalmente la sociedad.

Ha sido responsable de algunas de las mayores innovaciones de OpenAI en investigación de seguridad, incluida la creación de equipos rojos externos, que involucran a expertos externos que buscan problemas potenciales en los productos OpenAI.

Brundage dijo que dejaba la empresa para tener más independencia y libertad para publicar. Se refirió a los desacuerdos que tuvo con OpenAI sobre las limitaciones de la investigación que se le permitía publicar y dijo que “las limitaciones se han vuelto excesivas”.

También dijo que trabajar dentro de OpenAI había sesgado su investigación y hacía difícil ser imparcial sobre el futuro de la política de IA. En su publicación en X, Brundage describió el sentimiento predominante dentro de OpenAI de que “hablar claro tiene grandes costos y que sólo algunas personas pueden hacerlo”.

LEAVE A REPLY

Please enter your comment!
Please enter your name here