OpenAI reduce el coste de uso de su IA con un modelo “mini”

OpenAI anunció hoy un modelo “mini” de precio reducido que, según afirma, permitirá que más empresas y programas aprovechen sus inteligencia artificialEl nuevo modelo, llamado GPT-4o mini y disponible a partir de hoy, es un 60 por ciento más barato que el modelo existente más económico de OpenAI y, al mismo tiempo, ofrece un mayor rendimiento, afirma la compañía.

IA abierta caracteriza la medida como parte de un esfuerzo por hacer que la IA sea “lo más accesible posible”, pero también refleja la creciente competencia entre los proveedores de IA en la nube, así como el creciente interés en modelos de IA de código abierto pequeños y gratuitos. Se espera que Meta lance la versión más grande de su muy capaz oferta gratuita, Llama 3, la próxima semana.

“El objetivo de OpenAI es crear y distribuir inteligencia artificial de forma segura y hacerla ampliamente accesible”, explica a WIRED Olivier Godement, gerente de productos de OpenAI responsable del nuevo modelo. “Hacer que la inteligencia esté disponible a un menor costo es una de las formas más eficientes de lograrlo”.

Godement afirma que la empresa desarrolló una oferta más económica mejorando la arquitectura del modelo y refinando los datos de entrenamiento y el régimen de entrenamiento. GPT-4o mini supera a otros modelos “pequeños” del mercado en varios puntos de referencia comunes, afirma OpenAI.

OpenAI ha ganado una presencia significativa en el mercado de IA en la nube gracias a las notables capacidades de su chatbot, ChatGPTque debutó a fines de 2022. La compañía permite que personas externas accedan al gran modelo de lenguaje que impulsa ChatGPT, llamado GPT-4o, por una tarifa. También ofrece un modelo menos potente, llamado GPT-3.5 Turbo, por aproximadamente una décima parte del costo de GPT-4o.

El interés en los modelos de lenguaje que despertó el gran éxito de ChatGPT ha impulsado a los competidores a desarrollar ofertas similares. Google, un pionero en inteligencia artificial, ha hecho un gran esfuerzo para crear y comercializar un gran modelo de lenguaje y un chatbot bajo la marca Gemini. Empresas emergentes como Anthropic, Cohere y AI21 han recaudado millones para desarrollar y comercializar sus propios grandes modelos de lenguaje para clientes comerciales y desarrolladores.

La creación de modelos de lenguajes grandes de mayor rendimiento requiere enormes recursos financieros, pero algunas empresas han optado por abrir el código fuente de sus creaciones para atraer a los desarrolladores a sus ecosistemas. El modelo de IA de código abierto más destacado es Llama de Meta; se puede descargar y utilizar de forma gratuita, pero Su licencia impone ciertos límites al uso comercial..

Este abril, Meta anunció Llama 3su modelo gratuito más potente. La empresa lanzó una versión pequeña del modelo con 8 mil millones de parámetros (una medida aproximada de la portabilidad y complejidad de un modelo), así como una versión más potente, de tamaño mediano, con 70 mil millones de parámetros. El modelo de tamaño mediano está cerca de la mejor oferta de OpenAI en varios puntajes de referencia.

Varias fuentes confirmaron a WIRED que Meta planea lanzar la versión más grande de Llama 3, con 400 mil millones de parámetros, el 23 de julio, aunque dicen que la fecha de lanzamiento podría cambiar. No está claro qué tan capaz será esta versión de Llama 3, pero algunas compañías han Dirigieron su atención hacia modelos de IA de código abierto porque son más baratos y personalizables, y ofrecen un mayor control sobre un modelo y los datos que lo alimentan.

Godement reconoce que las necesidades de los clientes están evolucionando. “Lo que vemos cada vez más en el mercado son desarrolladores y empresas que combinan modelos pequeños y grandes para crear la mejor experiencia de producto al precio y con la latencia que les resulte conveniente”, afirma.

Godement afirma que las ofertas en la nube de OpenAI ofrecen a los clientes modelos que han pasado por más pruebas de seguridad que los de la competencia. Añade que OpenAI podría desarrollar eventualmente modelos que los clientes puedan ejecutar en sus propios dispositivos. “Si vemos una demanda masiva, podemos abrir esa puerta”, afirma.

Fuente