Micron ha lanzado oficialmente su memoria de 36 GB HBM3E de 12 alturas, lo que marca la entrada de la compañía en el panorama competitivo de las soluciones de memoria de alto rendimiento para AI y sistemas basados en datos.
A medida que las cargas de trabajo de IA se vuelven más complejas y con mayor cantidad de datos, la necesidad de soluciones de memoria energéticamente eficientes se vuelve primordial. El HBM3E de Micron tiene como objetivo lograr ese equilibrio, proporcionando velocidades de procesamiento más rápidas sin las altas demandas de energía típicamente asociadas con sistemas tan potentes.
La memoria HBM3E de 36 GB de altura 12 de Micron destaca por su mayor capacidad, ya que ofrece un aumento del 50 % en la capacidad en comparación con las ofertas HBM3E actuales. Esto lo convierte en un componente crucial para los aceleradores de IA y los centros de datos que gestionan grandes cargas de trabajo.
Memoria HBM3E 12 de 36 GB de altura para aceleración de IA
Micron afirma que su oferta ofrece más de 1,2 terabytes por segundo (TB/s) de ancho de banda de memoria, con una velocidad de pin superior a 9,2 gigabits por segundo (Gb/s), lo que garantiza un rápido acceso a los datos para las aplicaciones de IA. Si bien la nueva memoria de Micron aborda la creciente demanda de modelos de IA más grandes y un procesamiento de datos más eficiente, también reduce el consumo de energía en un 30 % en comparación con sus rivales.
Aunque la memoria HBM3E de 12 alturas de Micron aporta mejoras notables en términos de capacidad y eficiencia energética, ingresa a un campo donde ambos Samsung y SK Hynix ya han establecido su dominio. Estos dos rivales están persiguiendo agresivamente el próximo gran avance en memoria de gran ancho de banda: HBM4.
Se espera que HBM4 cuente con 16 capas de DRAM, ofreciendo más de 1,65 TBps de ancho de banda, superando con creces las capacidades de HBM3E. Además, con configuraciones que alcanzan hasta 48 GB por pila, HBM4 proporcionará una capacidad de memoria aún mayor, lo que permitirá a los sistemas de IA manejar cargas de trabajo cada vez más complejas.
A pesar de la presión de sus competidores, la memoria HBM3E de 12 alturas de Micron sigue siendo un actor fundamental en el ecosistema de IA.
La compañía ya ha comenzado a enviar unidades con capacidad de producción a socios clave de la industria para su calificación, lo que les permitirá incorporar la memoria en sus aceleradores de IA e infraestructuras de centros de datos. La sólida red de soporte y las asociaciones de ecosistemas de Micron garantizan que sus soluciones de memoria se integren perfectamente en los sistemas existentes, impulsando mejoras de rendimiento en las cargas de trabajo de IA.
Una colaboración notable es la asociación de Micron con 3DFabric Alliance de TSMC, que ayuda a optimizar la fabricación de sistemas de IA. Esta alianza respalda el desarrollo de la memoria HBM3E de Micron y garantiza que pueda integrarse en diseños de semiconductores avanzados, mejorando aún más las capacidades de los aceleradores y supercomputadoras de IA.