Miles Brundage, investigador de políticas desde hace mucho tiempo, deja OpenAI

Miles Brundage, investigador de políticas de OpenAI desde hace mucho tiempo y asesor principal del equipo de preparación de AGI de la compañía, se fue.

en un correo en X el miércoles y en un ensayo en su hoja informativaBrundage dijo que cree que tendrá más impacto como investigador y defensor en el sector sin fines de lucro, donde tendrá “más capacidad para publicar libremente”.

“Parte de lo que hizo que esta fuera una decisión difícil es que trabajar en OpenAI es una oportunidad de impacto increíblemente alto, ahora más que nunca”, dijo Brundage. “OpenAI necesita empleados que se preocupen profundamente por la misión y que estén comprometidos a mantener una cultura de toma de decisiones rigurosa sobre el desarrollo y la implementación (incluida la implementación interna, que será cada vez más importante con el tiempo)”.

Con la salida de Brundage, la división de investigación económica de OpenAI, que hasta hace poco era un subequipo de preparación de AGI, pasará a depender de OpenAI. nuevo economista jefeRonnie Chatterji. El resto del equipo de preparación de AGI, que está llegando a su fin, se distribuirá entre otras divisiones de OpenAI, afirma Brundage. Joshua Achiam, jefe de alineación de la misión, se hará cargo de algunos de los proyectos de preparación de AGI.

Un portavoz de OpenAI dijo a TechCrunch que la compañía “apoya plenamente” la decisión de Brundage de realizar su investigación de políticas fuera de la industria y está “profundamente agradecida” por sus contribuciones.

“El plan de Brundage de apostar por la investigación independiente sobre políticas de IA le da la oportunidad de tener un impacto a una escala más amplia, y estamos emocionados de aprender de su trabajo y seguir su impacto”, dijo el portavoz en un comunicado. “Confiamos en que en su nuevo cargo, Miles seguirá elevando el listón de la calidad de la formulación de políticas en la industria y el gobierno”.

El portavoz no dijo quién asumirá las responsabilidades de Brundage.

Brundage se unió a OpenAI en 2018, donde comenzó como científico investigador y luego se convirtió en jefe de investigación de políticas de la compañía. Antes de OpenAI, Brundage fue investigador en el Instituto del Futuro de la Humanidad de la Universidad de Oxford.

En el equipo de preparación de AGI, Brundage se centró particularmente en la implementación responsable de sistemas de generación de lenguaje como ChatGPT. Dirigió otras iniciativas en otros lugares, incluido el programa de equipos rojos externos de OpenAI y sus primeros informes de “tarjeta de sistema” que documentan las capacidades y limitaciones del modelo de IA.

En los últimos años, OpenAI ha sido acusado por varios ex empleados – y miembros de la junta – de priorizar los productos comerciales a expensas de la seguridad de la IA. En su publicación en X, Brundage instó a los empleados de OpenAI a “decir lo que piensan” sobre cómo la empresa puede mejorar.

“Algunas personas me han dicho que están tristes porque me voy y apreciaron que a menudo he estado dispuesto a plantear inquietudes o preguntas mientras estoy aquí… OpenAI tiene muchas decisiones difíciles por delante y no tomará las tomar decisiones correctas si sucumbimos al pensamiento de grupo”, escribió.

OpenAI ha estado despidiendo a ejecutivos de alto perfil en las últimas semanas, la culminación de desacuerdos sobre la dirección de la compañía. Directora de Tecnología Mira Muratiel director de investigación Bob McGrew y el vicepresidente de investigación Barret Zoph anunciado sus dimisiones a finales de septiembre. El destacado investigador científico Andrej Karpathy izquierda OpenAI en febrero; Meses después, el cofundador de OpenAI y ex científico jefe, Ilya Sutskever, renunció, junto con el ex líder de seguridad. Jan Leike. En agosto, cofundador Juan Schulman dijo que dejaría OpenAI. Y Greg Brockman, el presidente de la empresa, está de licencia prolongada.

Ha sido un día bastante poco halagador para OpenAI.

El miércoles por la mañana, la empresa fue objeto de un artículo del New York Times. perfil del ex investigador de OpenAI Suchir Balaji, quien dijo que dejó la empresa porque ya no quería contribuir a tecnologías que creía que traerían a la sociedad más daño que bien. Balaji también acusó a OpenAI de violar los derechos de autor al entrenar sus modelos con datos protegidos por IP sin permiso, una acusación. otros han hecho contra la organización en demandas colectivas.


¡TechCrunch tiene un boletín informativo centrado en la IA! Regístrate aquí para recibirlo en tu bandeja de entrada todos los miércoles.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here