- Miles Brundage dejó OpenAI para dedicarse a la investigación de políticas en el sector sin fines de lucro.
- Brundage fue una figura clave en la investigación de AGI en OpenAI.
- OpenAI se ha enfrentado a salidas en medio de preocupaciones sobre su enfoque de la investigación de seguridad.
hay mucho de incertidumbre sobre inteligencia artificial generaluna forma todavía hipotética de IA que puede razonar tan bien (o mejor) que los humanos.
Sin embargo, según los investigadores de vanguardia de la industria, nos estamos acercando a lograr alguna forma de esto en los próximos años.
Miles Brundage, exjefe de investigación de políticas y preparación de AGI en AbiertoAIdijo a Hard Fork, un podcast de tecnología, que en los próximos años, la industria desarrollará “sistemas que básicamente pueden hacer cualquier cosa que una persona pueda hacer de forma remota en una computadora”. Eso incluye operar el mouse y el teclado o incluso parecer un “humano en un chat de video”.
“Los gobiernos deberían pensar en lo que eso significa en términos de sectores a los que gravar y en educación a los que invertir”, afirmó.
El cronograma para que empresas como OpenAI creen máquinas capaces de inteligencia artificial general es un debate casi obsesivo entre cualquiera que siga la industria, pero algunos de los nombres más influyentes en el campo creen que llegará en unos pocos años. John Schulmancofundador de OpenAI e investigador científico que dejó OpenAI en agosto, también dijo que faltan algunos años para AGI. Dario Amodeidirector ejecutivo del competidor de OpenAI, Anthropic, cree que alguna versión podría llegar tan pronto como 2026.
Brundage, quien anunció que era dejando OpenAI el mes pasado después de poco más de seis años en la empresa, comprendería tan bien como cualquiera la línea de tiempo de OpenAI.
Durante su estancia en la empresa, asesoró a sus ejecutivos y miembros de la junta directiva sobre cómo prepararse para AGI. También fue responsable de algunas de las mayores innovaciones en investigación de seguridad de OpenAI, incluido el equipo rojo externo, que implica traer expertos externos para buscar problemas potenciales en los productos de la empresa.
OpenAI ha visto una serie de desviaciones de varios investigadores y ejecutivos de seguridad de alto perfilalgunos de los cuales han citado preocupaciones sobre el equilibrio de la empresa entre el desarrollo de AGI y la seguridad.
Brundage dijo que su partida, al menos, no estuvo motivada por preocupaciones de seguridad específicas. “Estoy bastante seguro de que no hay otro laboratorio que esté totalmente al tanto de todo”, le dijo a Hard Fork.
En su anuncio inicial de su partida, que publicó en X, dijo que quería tener un mayor impacto como investigador de políticas o defensor en el sector sin fines de lucro.
Le dijo a Hard Fork que todavía mantiene la decisión y explicó por qué se fue.
“Una es que no pude trabajar en todas las cosas que quería, que a menudo eran cuestiones transversales de la industria. Entonces, no solo qué hacemos internamente en OpenAI, sino también qué regulación debería existir, etc. ” dijo.
“La segunda razón es que quiero ser independiente y menos parcial. Así que no quería que mis puntos de vista fueran descartados, correcta o incorrectamente, ya que esto es sólo una exageración corporativa”.