Los grupos chinos de IA se vuelven creativos para reducir el costo de los modelos

Manténgase informado con actualizaciones gratuitas

Las empresas chinas de inteligencia artificial están reduciendo los costos para crear modelos competitivos, mientras se enfrentan a las restricciones de chips estadounidenses y a presupuestos más reducidos que sus homólogos occidentales.

Empresas emergentes como 01.ai y DeepSeek han reducido los precios adoptando estrategias como centrarse en conjuntos de datos más pequeños para entrenar. AI modelos y contratar ingenieros informáticos baratos pero cualificados.

Grupos tecnológicos más grandes como Alibaba, Baidu y ByteDance también han participado en una guerra de precios para reducir los costos de “inferencia”, el precio de recurrir a grandes modelos lingüísticos para generar una respuesta, en más del 90 por ciento y en una fracción de la ofrecida por sus homólogos estadounidenses.

Esto a pesar de que las empresas chinas tienen que sortear la prohibición de Washington sobre las exportaciones de los chips de inteligencia artificial de Nvidia de más alta gama, considerados cruciales para desarrollar los modelos más avanzados en Estados Unidos.

01.ai, con sede en Beijing y dirigida por Lee Kai-Fu, ex director de Google China, dijo que ha reducido los costos de inferencia al construir un modelo entrenado con cantidades más pequeñas de datos que requiere menos potencia informática y optimizando su hardware.

“La fortaleza de China es fabricar motores de inferencia realmente asequibles y luego permitir que las aplicaciones proliferen”, dijo Lee al Financial Times.

Esta semana, el modelo Yi-Lightning de 01.ai ocupó el tercer lugar entre las empresas de LLM junto con Grok-2 de x.AI, pero detrás de OpenAI y Google en una clasificación publicada por investigadores de UC Berkeley SkyLab y LMSYS.

Las evaluaciones se basan en usuarios que califican las respuestas a las consultas de diferentes modelos. Otros jugadores chinos, incluidos ByteDance, Alibaba y DeepSeek, también han subido en los rankings de LLM.

El costo de la inferencia en Yi-Lightning de 01.ai es de 14 centavos por millón de tokens, en comparación con los 26 centavos del modelo más pequeño GPT o1-mini de OpenAI. Mientras tanto, los costos de inferencia para el GPT 4o, mucho más grande de OpenAI, son de 4,40 dólares por millón de tokens. La cantidad de tokens utilizados para generar una respuesta depende de la complejidad de la consulta.

Lee también dijo que Yi-Lightning costó 3 millones de dólares para “preentrenar”, un entrenamiento inicial del modelo que luego puede ajustarse o personalizarse para diferentes casos de uso. Esta es una pequeña fracción del costo citado por empresas como OpenAI para sus modelos grandes. Añadió que el objetivo no es tener el “mejor modelo”, sino uno competitivo que sea “entre cinco y diez veces menos costoso” para que los desarrolladores lo utilicen para crear aplicaciones.

Muchos grupos chinos de IA, incluidos 01.ai, DeepSeek, MiniMax y Stepfun, han adoptado el llamado enfoque de “modelo de experto”, una estrategia popularizada por primera vez por investigadores estadounidenses.

En lugar de entrenar un “modelo denso” a la vez en una vasta base de datos que ha extraído datos de Internet y otras fuentes, el enfoque combina muchas redes neuronales entrenadas con datos específicos de la industria.

Los investigadores ven el enfoque del modelo de experto como una forma clave de lograr el mismo nivel de inteligencia que un modelo denso pero con menos potencia informática. Pero el enfoque puede ser más propenso al fracaso, ya que los ingenieros tienen que orquestar el proceso de capacitación entre múltiples “expertos” en lugar de hacerlo en un solo modelo.

Dada la dificultad para asegurar un suministro constante y amplio de chips de IA de alta gama, los actores chinos de IA han estado compitiendo durante el año pasado para desarrollar conjuntos de datos de la más alta calidad para capacitar a estos “expertos” para diferenciarse de la competencia.

Lee dijo que 01.ai tiene enfoques para la recopilación de datos más allá del método tradicional de búsqueda en Internet, incluido el escaneo de libros y el rastreo de artículos en la aplicación de mensajería WeChat que son inaccesibles en la web abierta.

“Hay mucho trabajo duro e ingrato” para los ingenieros a la hora de etiquetar y clasificar datos, dijo, pero añadió que China -con su vasta reserva de talento de ingeniería barato- está en mejor posición para hacerlo que Estados Unidos.

“La fortaleza de China es no hacer la mejor investigación innovadora que nadie haya hecho antes, donde el presupuesto no tiene límite”, dijo Lee. “La fortaleza de China es construir bien, construir rápido, construir de manera confiable y construir barato”.

Información adicional de Cristina Criddle en San Francisco

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here