GPT-5, la próxima versión del modelo de lenguaje de OpenAI que lo cambió todo, está en camino. Business Insider informó anteriormente que algunos clientes han recibido Demos de la nueva versióny abundan las especulaciones sobre mejoras. Hay mucho en juego para este modelo, ya que consolidará el lugar de OpenAI a la vanguardia de la IA o lo empujará al medio del grupo.
Mientras los desarrolladores de IA esperan probar GPT-5, algunos han encontrado una nueva forma de avanzar hacia una IA más avanzada sin un modelo completamente nuevo.
Jared Quincy Davis es el director ejecutivo de Foundry, un proveedor de servicios de inteligencia artificial en la nube que emplea nuevas estrategias para hacer que el procesamiento de unidades de gráficos sea más eficiente.
La startup surgió de Sigilo en marzo con 80 millones de dólares en financiación inicial codirigida por Lightspeed Venture Partners y Sequoia Capital, para la que Davis anteriormente era un buscador de startups especializado en IA, y una valoración de 350 millones de dólares.
Las estrategias de Foundry se centran en hacer circular las cargas de trabajo de IA entre las GPU para maximizar su utilización. La reducción de las GPU inactivas se traduce en una computación más asequible, como explicó Davis en el podcast No Priors publicado el jueves.
El método de Davis para mejorar el rendimiento de los modelos de lenguaje grandes existentes, que encaja dentro de una clasificación emergente de “sistemas de IA compuestos”, se explicó en un trabajo de investigación publicado el mes pasado.
La idea es que si le haces la misma pregunta repetidamente a un modelo como GPT-4, puedes usar otro modelo mucho más pequeño para analizar esas respuestas y elegir la mejor.
“Cada vez más a menudo, para ir más allá de las capacidades y las fronteras accesibles a los modelos de última generación actuales y obtener GPT-5 o GPT-6 de manera temprana, los profesionales están empezando a hacer estas cosas, a menudo de manera implícita, donde llamarán al modelo de última generación actual muchas, muchas veces”, dijo Davis a los presentadores del podcast Sarah Guo y Elad Gil.
Davis explicó que su “llamada” repetida de modelos es lo que algunos de los modelos más inteligentes, aunque más pequeños, del mercado han hecho en su proceso de entrenamiento. Pero en este momento, este método solo es efectivo para ciertos tipos de consultas: básicamente, preguntas con una respuesta que es más fácil de verificar que de generar.
“Para el tipo de materias que uno esperaría, matemáticas, física, ingeniería eléctrica, este tipo de enfoque fue realmente útil”, dijo Davis.
En su prueba, Davis le planteó a GPT-4 un problema matemático complicado. El modelo solo obtuvo la respuesta correcta el 4 % de las veces, pero pudo determinar qué respuestas eran correctas cuando se le presentaban opciones el 90 % de las veces. Cuando Davis y sus coautores utilizaron el método de IA compuesta, el modelo en capas produjo la respuesta correcta el 37 % de las veces, un aumento de casi diez veces.
Implementar mejoras en los modelos base no es exactamente más eficiente: este método es casi con certeza una forma más costosa de aprovechar los modelos de IA, pero en algunos casos, los resultados mejorados bien valen el costo, dijo Davis.
Indicó que gastar más en entrenamiento e iteración ahora podría ahorrar en computación de inferencia en el futuro.
“Creo que la gente se está volviendo más sofisticada a la hora de pensar en el costo en términos de ciclo de vida”, dijo Davis.
¿Has probado Chat GPT-5? ¿Tienes algún consejo o idea para compartir? Ponte en contacto con Emma en ecosgrove@businessinsider.com o utilice la aplicación de mensajería segura Signal: 443-333-9088