El gigante surcoreano de la memoria SK Hynix ha anunciado que ha comenzado la producción en masa del primer HBM3E de 12 capas del mundo, con una capacidad de memoria total de 36 GB, un enorme aumento con respecto a la capacidad anterior de 24 GB en la configuración de 8 capas.
Este nuevo diseño fue posible reduciendo el grosor de cada chip DRAM en un 40%, lo que permitió apilar más capas manteniendo el mismo tamaño general. La compañía planea iniciar envíos voluminosos a finales de 2024.
La memoria HBM3E admite un ancho de banda de 9600 MT/s, lo que se traduce en una velocidad efectiva de 1,22 TB/s si se utiliza en una configuración de ocho pilas. La mejora lo hace ideal para manejar cargas de trabajo de LLM y IA que requieren velocidad y alta capacidad. La capacidad de procesar más datos a velocidades más rápidas permite que los modelos de IA se ejecuten de manera más eficiente.
Hardware Nvidia y AMD
Para el apilamiento de memoria avanzado, SK Hynix emplea tecnologías de empaquetado innovadoras, incluido Through Silicon Via (TSV) y el proceso Mass Reflow Moulded Underfill (MR-MUF). Estos métodos son esenciales para mantener la integridad estructural y la disipación de calor necesarias para un funcionamiento estable y de alto rendimiento en el nuevo HBM3E. Las mejoras en el rendimiento de la disipación de calor son particularmente importantes para mantener la confiabilidad durante las tareas intensivas de procesamiento de IA.
Además de su mayor velocidad y capacidad, el HBM3E está diseñado para ofrecer una estabilidad mejorada, y los procesos de embalaje patentados de SK Hynix garantizan una deformación mínima durante el apilado. La tecnología MR-MUF de la empresa permite una mejor gestión de la presión interna, reduciendo las posibilidades de fallos mecánicos y garantizando una durabilidad a largo plazo.
El muestreo inicial para este producto HBM3E de 12 capas comenzó en marzo de 2024, con NVIDIALas GPU Blackwell Ultra y AMDSe espera que los aceleradores Instinct MI325X estén entre los primeros en utilizar esta memoria mejorada, aprovechando hasta 288 GB de HBM3E para admitir cálculos complejos de IA. SK Hynix rechazó recientemente un pago adelantado de 374 millones de dólares de una empresa desconocida para garantizar que pudiera proporcionar a Nvidia suficiente HMB para su hardware de IA en demanda.
“SK Hynix ha superado una vez más los límites tecnológicos, demostrando nuestro liderazgo en la industria de la memoria de IA”, afirmó Justin Kim, presidente (director de AI Infra) de SK Hynix. “Continuaremos nuestra posición como el proveedor de memoria de IA número uno a nivel mundial mientras preparamos constantemente productos de memoria de próxima generación para superar los desafíos de la era de la IA”.