OpenAI está lanzando un modelo más económico e inteligente

OpenAI está lanzando un modelo más liviano y económico para que los desarrolladores puedan experimentar con él, llamado GPT-4o Mini. Cuesta significativamente menos que los modelos de tamaño completo y se dice que es más capaz que GPT-3.5.

Desarrollar aplicaciones utilizando los modelos de OpenAI puede resultar muy costoso. Los desarrolladores que no tengan los medios para permitirse el lujo de modificarlos pueden verse totalmente impedidos de hacerlo y optar por modelos más económicos como Gemini 1.5 Flash de Google o Claude 3 Haiku de Anthropic. Ahora, OpenAI está entrando en el juego de los modelos ligeros.

“Creo que GPT-4o Mini realmente cumple con la misión de OpenAI de hacer que la IA sea más accesible para las personas. Si queremos que la IA beneficie a todos los rincones del mundo, a todas las industrias, a todas las aplicaciones, tenemos que hacer que la IA sea mucho más asequible”, dijo Olivier Godement, quien lidera el producto de la plataforma API. El borde.

A partir de hoy, los usuarios de ChatGPT con planes Free, Plus y Team pueden usar GPT-4o Mini en lugar de GPT-3.5 Turbo, y los usuarios de Enterprise tendrán acceso la próxima semana. Eso significa que GPT-3.5 ya no será una opción para los usuarios de ChatGPT, pero seguirá estando disponible para los desarrolladores a través de la API si prefieren no cambiar a GPT-4o Mini. Godement dijo que GPT-3.5 se retirará de la API en algún momento, pero no están seguros de cuándo.

“Creo que será muy popular”, dijo Godement.

El nuevo modelo, más ligero, también admitirá texto y visión en la API, y la empresa afirma que pronto manejará todas las entradas y salidas multimodales, como video y audio. Con todas estas capacidades, podría parecer un asistente virtual más capaz que puede entender tu itinerario de viaje y crear sugerencias. Sin embargo, el modelo está pensado para tareas sencillas, por lo que nadie está construyendo Siri precisamente de forma barata.

Este nuevo modelo obtuvo una puntuación del 82 por ciento en la Medición de la comprensión del lenguaje en múltiples tareas (MMLU, por sus siglas en inglés), un examen de referencia que consta de unas 16.000 preguntas de opción múltiple en 57 materias académicas. Cuando se introdujo por primera vez el MMLU en 2020, la mayoría de los modelos lo hacían bastante mal, lo que era el objetivo, ya que los modelos se habían vuelto demasiado avanzados para los exámenes de referencia anteriores. GPT-3.5 obtuvo un 70 por ciento en este punto de referencia, GPT-4o obtuvo un 88,7 por ciento y Google afirma que Gemini Ultra tener la puntuación más alta de la historia del 90 por ciento. En comparación, los modelos de la competencia Haiku de Claude 3 y Géminis 1.5 Flash obtuvieron 75,2 por ciento y 78,9 por ciento, respectivamente.

Vale la pena señalar que los investigadores desconfían de las pruebas de referencia como la MMLU, ya que la forma en que se administra varía ligeramente de una empresa a otra. Eso hace que sea difícil comparar las puntuaciones de los diferentes modelos, ya que Los New York Times reportadoTambién existe el problema de que la IA potencialmente tiene estas respuestas en su conjunto de datos, lo que esencialmente le permite hacer trampa, y normalmente no hay evaluadores externos que formen parte del proceso.

Para los desarrolladores que desean crear aplicaciones de IA a bajo costo, el lanzamiento de GPT-4o Mini les brinda otra herramienta para agregar a su inventario. OpenAI permitió que la empresa emergente de tecnología financiera Ramp probara el modelo, utilizando GPT-4o Mini para crear una herramienta que extrae datos de gastos en los recibos. De esta manera, en lugar de tener que pasar por cuadros de texto, un usuario puede cargar una imagen de su recibo y el modelo lo ordena todo por él. Superhuman, un cliente de correo electrónico, también probó GPT-4o Mini y lo utilizó para crear una función de sugerencias automáticas para las respuestas por correo electrónico.

El objetivo es ofrecer a los desarrolladores algo liviano y económico para crear todas las aplicaciones y herramientas que no podrían permitirse crear con un modelo más grande y costoso como GPT-4. Muchos desarrolladores recurrirían a Claude 3 Haiku o Gemini 1.5 Flash antes de pagar los exorbitantes costos de computación que se requieren para ejecutar uno de los modelos más robustos.

Entonces, ¿por qué OpenAI tardó tanto? Godement dijo que fue “pura priorización”, ya que la empresa estaba enfocada en crear modelos más grandes y mejores como GPT-4, lo que requirió mucho “esfuerzo humano y computacional”. A medida que pasaba el tiempo, OpenAI notó una tendencia de desarrolladores ansiosos por usar modelos más pequeños, por lo que la empresa decidió que ahora era el momento de invertir sus recursos en la creación de GPT-4o Mini.

“Creo que será muy popular”, dijo Godement. “Tanto por las aplicaciones existentes que utilizan toda la IA de OpenAI como por muchas aplicaciones que se lanzaron antes”.

Fuente