¿Quién queda en OpenAI? Sam Altman consolida el poder tras un golpe fallido

“OpenAI no es nada sin su gente”. Esa fue la frase de la que se hicieron eco decenas de empleados en las redes sociales en noviembre para presionar a la junta que había despedido al director ejecutivo Sam Altman y convencerlos de que lo reintegraran.

Esas palabras se repitieron nuevamente el miércoles cuando su destacada directora de tecnología, Mira Murati, anunció su partidajunto con otras dos personas: Bob McGrew, director de investigación, y Barret Zoph, vicepresidente de investigación.

La decisión de Murati sorprendió al personal y señaló una nueva dirección para la empresa de nueve años que ha pasado de ser una organización de investigación de IA a un gigante comercial. Altman solo fue notificado por la mañana, pocas horas antes de que Murati enviara un mensaje a toda la empresa.

Altman dijo en X que “no pretenderá que esto sea natural”. . . “Ser tan brusco”, ya que las salidas dejaron claro que la empresa no se había curado de las fracturas provocadas por el fallido golpe de otoño.

En los meses posteriores a la dura batalla del tablero, Altman se ha rodeado de aliados como la creciente puesta en marcha sigue adelante con sus planes de reestructurarse como una empresa con fines de lucro.

Esta semana también se supo que Altman había discutido la adquisición de una participación accionaria con la junta directiva, en un momento en que la compañía con sede en San Francisco ha tratado de recaudar más de 6.000 millones de dólares con una valoración de 150.000 millones de dólares.

Esas conversaciones se producen después de que Altman, que ya es multimillonario por sus inversiones y proyectos tecnológicos anteriores, dijera anteriormente que había elegido no adquirir ninguna participación accionaria en OpenAI para permanecer neutral en la empresa.

Este relato de cómo Altman consolidó su poder y lealtades en el fabricante de ChatGPT se basa en conversaciones con siete empleados actuales y anteriores, así como asesores y ejecutivos cercanos al liderazgo de la empresa.

Dijeron que AbiertoAI Planeaba confiar en el talento técnico existente y en las contrataciones recientes para asumir las responsabilidades de Murati y utilizar su salida para “aplanar” la organización. Altman tendrá una mayor participación técnica mientras la compañía busca mantener su liderazgo sobre Google y otros rivales.

A pesar de sus dramas, OpenAI sigue siendo un actor líder en IA, y la startup reveló el modelo o1 a principios de este mes, que según dijo era capaz de razonar, una hazaña con la que sus rivales Meta y Anthropic también están luchando.

“Mira está enfocada en una transición exitosa con sus equipos antes de dedicar toda su energía y atención a lo que viene después”, dijo una persona familiarizada con su pensamiento.

Con la partida de Murati, Altman ascendió a Mark Chen para dirigir la investigación con Jakub Pachocki, quien reemplazó a Ilya Sutskever como científico jefe en mayo.

En una entrevista con el Financial Times a principios de este mes, donde Murati presentó a Chen como el principal líder del proyecto o1, dijo que la capacidad de razonamiento de los sistemas de inteligencia artificial “mejoraría nuestras ofertas (y) ayudaría a impulsar mejoras en todos nuestros programas”. .

Probablemente habrá más cambios en los próximos días, ya que Altman interrumpe un viaje a Europa esta semana para regresar a la sede de la compañía en San Francisco.

Los ejecutivos que permanecen en OpenAI incluyen a Brad Lightcap, director de operaciones de la compañía que lidera sus acuerdos empresariales, y Jason Kwon, director de estrategia, quienes son aliados de Altman desde hace mucho tiempo y trabajaron en la incubadora de empresas emergentes Y Combinator bajo Altman.

En junio, Altman contrató a Kevin Weil, director de producto, que anteriormente trabajó en Twitter, Instagram y Facebook, y a Sarah Friar, directora financiera, ex directora ejecutiva de Nextdoor, una red social local. Ambos provienen de empresas de tecnología de consumo y se centran en el crecimiento de productos y usuarios en lugar de en ciencia o ingeniería.

Sus trabajos son nuevos para OpenAI, pero familiares para la mayoría de las nuevas empresas de Silicon Valley, lo que marca el paso de la empresa a convertirse en un grupo tecnológico más tradicional centrado en crear productos que atraigan a los consumidores y generen ingresos. OpenAI dijo que estos esfuerzos no están reñidos con garantizar que la IA beneficie a todos.

“A medida que pasamos de ser un laboratorio de investigación a una empresa global que brinda investigación avanzada de IA a cientos de millones de personas, nos hemos mantenido fieles a nuestra misión y estamos orgullosos de lanzar los modelos más capaces y seguros de la industria para ayudar a las personas a resolver problemas difíciles. problemas”, dijo un portavoz de OpenAI.

Friar intentó levantar la moral esta semana, diciendo al personal que la ronda de financiación de 6.000 millones de dólares, que se esperaba cerrara la próxima semana, tenía un exceso de suscripción, argumentando que su alto valor era un testimonio de su arduo trabajo.

Kevin Weil
Kevin Weil fue contratado como director de producto de OpenAI en junio © José Sarmento Matos/Bloomberg

Otro recién llegado destacado es Chris Lehane, ex asistente del entonces presidente estadounidense Bill Clinton y vicepresidente de Airbnb, que trabajó para Altman como asesor durante el golpe y se unió a la empresa a principios de este año. Recientemente asumió el cargo de vicepresidente de asuntos globales de Anna Makanju, la primera contratada en políticas de OpenAI, quien asumió un rol recién creado como vicepresidente de impacto global.

Con las últimas salidas, Altman se despidió de dos de los altos ejecutivos que habían planteado preocupaciones sobre él a la junta directiva en octubre pasado: Sutskever y Murati, quien dijo que la junta se acercó a ella y la dejó perpleja por la decisión de destituirlo.

Las preocupaciones incluían el estilo de liderazgo de Altman de socavar y enfrentar a las personas entre sí, creando un ambiente tóxico, dijeron varias personas con conocimiento de la decisión de despedirlo.

Al cabo de un día, cuando los inversores y empleados respaldaron a Altman, Murati y Sutskever se unieron a los llamamientos para su regreso y permanecieron en la empresa, deseando estabilizar el barco y seguir navegando hacia la misión: construir inteligencia artificial general, sistemas que podrían rivalizar o superar a los humanos. inteligencia, para beneficiar a la humanidad.

Este fue el mantra bajo el cual Elon Musk, Altman y otras nueve personas fundaron OpenAI en 2015. Inicialmente era una organización sin fines de lucro y luego pasó a ser una entidad con ganancias limitadas en 2019.

Ahora, mientras busca cerrar su última ronda de financiación multimillonaria, la empresa está repensando su estructura corporativa para atraer inversores y generar mayores retornos. Sólo dos cofundadores, Altman y Wojciech Zaremba, permanecen en la empresa. El presidente Greg Brockman se toma un año sabático hasta fin de año.

Greg Brockman
Greg Brockman, presidente de OpenAI, está de licencia © Steve Jennings/Getty Images para TechCrunch

Para muchos miembros del personal de OpenAI existe el deseo de trabajar en AGI y alcanzar ese objetivo antes que competidores como Meta o xAI de Musk. Aceptan el llamado culto a Sam y creen que él los guiará hacia este gran avance. Sin embargo, varios miembros del personal han expresado su preocupación por alcanzar este objetivo, sugiriendo que se dé prioridad a la creación de productos sobre la seguridad.

Daniel Kokotajlo, ex investigador de gobernanza de IA, dijo que cuando dejó la empresa en marzo, lo más cerca que había estado OpenAI de un plan sobre cómo mantener segura a AGI fue el apéndice final sobre un periódico de diciembre escrito por Jan Leike, un investigador de seguridad, junto con Sutskever.

“Se podría esperar que una empresa de más de 1.000 personas que construye esto tenga un plan escrito integral sobre cómo garantizar que AGI sea seguro, que se publicaría para que pudiera ser criticado e iterado”, dijo. “OpenAI sabe que cualquier detalle de este tipo no resistiría el escrutinio, pero esto es lo mínimo aceptable para una institución que construye la tecnología más poderosa y peligrosa jamás creada”.

OpenAI señaló su marco de preparación como un ejemplo de su transparencia y planificación, y agregó que la tecnología también podría aportar muchos beneficios.

“OpenAI continúa invirtiendo significativamente en investigación de seguridad, medidas de seguridad y colaboraciones con terceros, y continuaremos supervisando y evaluando sus esfuerzos”, dijeron Zico Kolter y Paul Nakasone, miembros del comité de supervisión de seguridad de la junta independiente.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here