Desbloquea el Editor's Digest gratis
Roula Khalaf, editora del FT, selecciona sus historias favoritas en este boletín semanal.
Los rivales de Nvidia, que domina el mercado de chips de IA, han esperado durante mucho tiempo que un punto de inflexión les ayudara a recuperar el terreno perdido.
Puede que ese momento ya haya llegado, pero hasta ahora hay pocas señales de que Nvidia ceda su liderazgo, aunque todavía no está claro si el mercado de la IA evolucionará de manera que acabe erosionando su dominio.
La cuestión clave es cuándo el foco principal de la IA pasa del entrenamiento de los grandes modelos “fundamentales” que sustentan los sistemas de IA modernos a la puesta en uso generalizado de esos modelos en las aplicaciones que utilizan un gran número de consumidores y empresas.
Gracias a su capacidad para manejar múltiples cálculos en paralelo, las potentes unidades de procesamiento gráfico (GPU) de Nvidia han mantenido su dominio en el entrenamiento de IA con uso intensivo de datos. Por el contrario, ejecutar consultas en estos modelos de IA (lo que se conoce como inferencia) es una actividad menos exigente que podría brindar una oportunidad a los fabricantes de chips menos potentes (y más económicos).
Cualquiera que espere un cambio rápido se habrá sentido decepcionado. El liderazgo de Nvidia en este nuevo mercado ya parece formidable. Al anunciar sus últimos resultados el jueves, dijo que más del 40 por ciento de sus ventas de centros de datos en los últimos 12 meses ya estaban vinculadas a la inferencia, lo que representa más de 33 mil millones de dólares en ingresos. Eso es más de dos veces y media las ventas totales de la división de centros de datos de Intel durante el mismo período.
Pero no se sabe con certeza cómo evolucionará el mercado de la inferencia a partir de ahora. Dos cuestiones determinarán el resultado: si el negocio de la IA seguirá dominado por una carrera por construir modelos de IA cada vez más grandes y dónde se realizará la mayor parte de la inferencia.
NvidiaLa suerte de Nvidia ha estado fuertemente ligada a la carrera por la escala. El director ejecutivo Jensen Huang dijo esta semana que se necesitan “10, 20, 40 veces más recursos computacionales” para entrenar cada nueva generación de grandes modelos de IA, lo que garantiza una enorme demanda de los próximos chips Blackwell de Nvidia. Estos nuevos procesadores también proporcionarán la forma más eficiente de ejecutar inferencias contra estos “modelos de parámetros multimillonarios”, agregó.
Sin embargo, no está claro si los modelos cada vez más grandes seguirán dominando el mercado o si llegarán a un punto en que sus rendimientos disminuirán. Al mismo tiempo, ya se están poniendo de moda modelos más pequeños que prometen muchas de las mismas ventajas, así como modelos menos capaces diseñados para tareas más limitadas. Meta, por ejemplo, reclamado recientemente que su nuevo Llama 3.1 podría igualar el rendimiento de modelos avanzados como el GPT-4 de OpenAI, a pesar de ser mucho más pequeño.
Las técnicas de entrenamiento mejoradas, que a menudo se basan en mayores cantidades de datos de alta calidad, han ayudado. Una vez entrenados, los modelos más grandes también se pueden “destilar” en versiones más pequeñas. Estos avances prometen llevar una mayor parte del trabajo de inferencia de IA a centros de datos más pequeños o “de borde”, y a teléfonos inteligentes y computadoras personales. “Las cargas de trabajo de IA se acercarán más a donde están los datos o donde están los usuarios”, dice Arun Chandrasekaran, analista de Gartner.
La gama de competidores que tienen la vista puesta en este mercado naciente ha crecido rápidamente. La empresa de chips móviles Qualcomm, por ejemplo, ha sido la primera en producir chips capaces de alimentar una nueva clase de PC con capacidad de inteligencia artificial, siguiendo un diseño presentado por Microsoft, un desarrollo que plantea un desafío directo al líder de larga data en chips para PC, Intel.
Mientras tanto, el mercado de centros de datos ha atraído a una amplia gama de posibles competidores, de empresas emergentes como Cerebras y Groq hasta gigantes tecnológicos como Meta y Amazon, que han desarrollado sus propios chips de inferencia.
Es inevitable que Nvidia pierda participación de mercado a medida que la inferencia de IA se traslade a dispositivos en los que aún no tiene presencia y a los centros de datos de empresas de la nube que prefieren diseños de chips internos. Pero para defender su territorio, se apoya fuertemente en la estrategia de software que durante mucho tiempo ha actuado como un foso alrededor de su hardware, con herramientas que facilitan a los desarrolladores el uso de sus chips.
Esta vez, está trabajando en una gama más amplia de software empresarial para ayudar a las empresas a crear aplicaciones que hagan el mejor uso de la IA, algo que también garantizaría la demanda de sus chips. Nvidia reveló esta semana que espera que sus ingresos por este software alcancen una tasa anual de 2.000 millones de dólares para finales de este año. La cifra es pequeña para una empresa que se espera que produzca ingresos totales de más de 100.000 millones de dólares, pero apunta a la creciente adopción de tecnologías que deberían aumentar la “adhesión” de los productos. El mercado de chips de IA puede estar entrando en una nueva fase, pero el control de Nvidia no muestra signos de aflojarse.