Samsung inicia el envío del primer HBM4 comercial de la industria

Última actualización: febrero 15, 2026
  • Samsung arranca la producción en masa del primer HBM4 comercial y ya lo está enviando a clientes estratégicos
  • La nueva memoria alcanza 11,7 Gbps por pin, con picos de hasta 13 Gbps y hasta 3,3 TB/s por pila
  • Combina DRAM 1c de sexta generación y lógica de 4 nm para mejorar rendimiento, eficiencia y gestión térmica
  • El HBM4 refuerza la posición de Samsung en el mercado de memoria para IA y centros de datos de próxima generación

Memoria HBM4 de última generación

Samsung ha dado un paso importante al poner en circulación el primer HBM4 comercial de la industria, una memoria de alto ancho de banda que ya se está enviando a clientes estratégicos y que aspira a convertirse en pieza clave en la nueva ola de sistemas de inteligencia artificial y centros de datos avanzados.

Con este movimiento, el fabricante surcoreano busca reafirmar su liderazgo en el mercado de memoria para IA tras las dudas generadas en generaciones anteriores de HBM, y en un contexto de cambio que revolucionará la RAM, situándose ahora en una posición adelantada en la carrera por suministrar los chips que alimentarán las próximas plataformas de computación acelerada.

Producción en masa y primer HBM4 comercial del mercado

La compañía ha confirmado que ya ha comenzado la producción en masa y el envío comercial de HBM4, marcando un hito al ser el primer proveedor que lleva esta sexta generación de memoria HBM a clientes reales, más allá de las fases de muestra o validación.

Samsung subraya que este es un hito de la industria de memoria avanzada, ya que asegura una posición de liderazgo temprano en el mercado HBM4 y refuerza su papel en el ecosistema de inteligencia artificial, donde esta tecnología se ha convertido en un componente fundamental junto con las GPU de nueva generación.

Según fuentes de la compañía, el inicio del envío comercial se habría adelantado aproximadamente una semana respecto al calendario previsto inicialmente, tras cerrar los últimos flecos con sus socios, lo que evidencia la presión por llegar cuanto antes al mercado de próxima generación de IA y superar la crisis de memoria RAM.

En este contexto, se indica que la familia de chips HBM4 de Samsung ha superado con rapidez las pruebas de calidad de uno de sus clientes estratégicos más relevantes, Nvidia, un paso clave para su adopción en aceleradores de IA y plataformas GPU orientadas a entrenamiento y despliegue de modelos de gran tamaño.

Todo este despliegue productivo se apoya en el uso proactivo del proceso DRAM de clase 10 nm de sexta generación (1c), el más avanzado de la compañía, lo que ha permitido lograr rendimientos estables desde el arranque de la fabricación en volumen, sin necesidad de rediseños posteriores que pudieran retrasar la salida al mercado.

Arquitectura y procesos: DRAM 1c y lógica de 4 nm

Arquitectura y proceso del primer HBM4 comercial

Para este producto, Samsung ha optado por un enfoque menos conservador de lo habitual y ha decidido no reutilizar diseños probados de generaciones anteriores, sino dar el salto directo a nodos punteros tanto en la parte de memoria como en la lógica integrada.

Te puede interesar:  Cómo recuperar sonido en TV Samsung

El HBM4 combina, por primera vez en la compañía, la tecnología DRAM 1c de sexta generación (clase 10 nm) con un proceso de fabricación lógico de 4 nanómetros para el denominado logic base die, la capa de control que coordina el comportamiento del resto de matrices de memoria apiladas.

Esta combinación de nodos avanzados se ha diseñado con una doble meta: por un lado, maximizar el rendimiento y el ancho de banda y, por otro, asegurar una eficiencia energética y una fiabilidad acordes con las necesidades de los grandes centros de datos y nubes públicas que impulsan servicios de IA generativa.

Samsung destaca que, gracias a la optimización conjunta de proceso y diseño, ha sido posible contar con un margen de rendimiento holgado, algo que facilita atender picos de demanda de cálculo de los clientes sin comprometer la estabilidad operativa.

En palabras de la dirección de desarrollo de memoria de la compañía, la apuesta por estos nodos avanzados responde a la necesidad de satisfacer la creciente exigencia de rendimiento por parte de los fabricantes de GPU y otros aceleradores personalizados (como ASIC para IA), que necesitan memorias mucho más rápidas y densas para seguir escalando sus arquitecturas.

Velocidades de hasta 13 Gbps y ancho de banda de hasta 3,3 TB/s

Uno de los puntos más destacados del primer HBM4 comercial de Samsung es su capacidad para ofrecer una velocidad de transferencia constante de 11,7 Gbps por pin, una cifra que se sitúa claramente por encima del estándar de 8 Gbps establecido por JEDEC para esta generación.

Tomando como referencia este estándar, el nuevo HBM4 proporciona un salto de rendimiento que ronda entre el 37% y el 46%, dependiendo de la métrica utilizada, y se coloca también muy por delante de su predecesor directo HBM3E, cuya velocidad máxima de pin se situaba en torno a los 9,6 Gbps.

Además de esta velocidad sostenida, la compañía señala que, con las condiciones y configuraciones adecuadas, el rendimiento de HBM4 puede escalar hasta los 13 Gbps, lo que ayuda a mitigar los cuellos de botella de datos que aparecen a medida que los modelos de inteligencia artificial continúan creciendo en tamaño y complejidad.

En cuanto al ancho de banda agregado, por cada pila de memoria el incremento respecto a la generación previa es igualmente notable: el HBM4 de Samsung es capaz de elevar el ancho de banda total hasta los 3-3,3 TB/s por stack, lo que supone aproximadamente entre 2,4 y 2,7 veces más que lo que ofrecía HBM3E.

Este aumento de velocidad y ancho de banda resulta especialmente relevante para aplicaciones como el entrenamiento de grandes modelos de IA, inferencia a gran escala y simulaciones científicas, donde la capacidad de alimentar de datos a las GPU y ASIC marca buena parte del rendimiento global del sistema.

Te puede interesar:  Cómo será el invierno 2022-2023 en España

Capacidades, apilamiento y eficiencia energética

Más allá del rendimiento puro, el primer HBM4 comercial de Samsung llega con una arquitectura de apilamiento mejorada. Gracias a su tecnología de stacking de 12 capas, la compañía ofrece configuraciones con capacidades que van desde 24 GB hasta 36 GB por chip.

Mirando al futuro, el fabricante planea incorporar apilamiento de 16 capas, lo que permitiría llevar estas capacidades hasta los 48 GB por pila, en línea con los plazos y necesidades de los clientes que busquen configurar sistemas con un volumen de memoria aún mayor para cargas de trabajo muy exigentes.

Para sostener este incremento de densidad y el doble de líneas de E/S de datos (pasando de 1.024 pines a 2.048), Samsung ha tenido que abordar retos importantes en consumo de energía y gestión térmica, integrando soluciones de diseño de bajo consumo directamente en el core die de la memoria.

Entre las mejoras técnicas destaca el uso de tecnología low-voltage TSV (through silicon via) y la optimización de la power distribution network (PDN), que en conjunto permiten una mejora aproximada del 40% en la eficiencia energética frente a HBM3E, reduciendo el gasto eléctrico para un mismo nivel de rendimiento.

En paralelo, se ha trabajado en refinar el camino térmico de la pila, logrando una mejor resistencia térmica y mayor capacidad de disipación, con incrementos de alrededor de un 10% y un 30% respectivamente respecto a la generación anterior, algo clave para que estas memorias operen de forma estable en sistemas de alta densidad.

Impacto en centros de datos, IA y coste total de propiedad

La combinación de mayor ancho de banda, densidad y eficiencia energética hace que este HBM4 esté claramente orientado a entornos de centros de datos de próxima generación, donde el coste operativo y la capacidad de escalar la potencia de cálculo son factores críticos.

Los expertos apuntan a que el diseño energéticamente eficiente del producto contribuye a reducir de forma notable los costes de refrigeración y el consumo eléctrico en grandes instalaciones, un aspecto especialmente sensible en Europa y España, donde el precio de la energía y las regulaciones medioambientales obligan a optimizar la huella energética.

Al ofrecer un rendimiento elevado por vatio y un mayor ancho de banda por módulo, el HBM4 de Samsung permite a los operadores de centros de datos y a los proveedores de nube exprimir mejor el rendimiento de las GPU y otros aceleradores, ayudando a controlar el coste total de propiedad (TCO) de la infraestructura.

Para empresas y organizaciones europeas que despliegan servicios de IA generativa, análisis de datos avanzados o supercomputación en la nube, este tipo de memoria de alto ancho de banda se convierte en un componente clave a la hora de dimensionar clústeres más compactos, con un consumo energético controlado y preparados para modelos de próxima generación.

Te puede interesar:  Cómo Murió Bruce Lee

En la práctica, la llegada del primer HBM4 comercial de la industria abre la puerta a plataformas de IA más potentes y eficientes, que previsiblemente veremos integradas en sistemas ofrecidos por grandes proveedores globales que también operan en Europa, lo que terminará repercutiendo en el rendimiento de los servicios disponibles para usuarios y empresas de la región.

Capacidad productiva, alianzas y hoja de ruta hacia HBM4E

Para consolidar su posición en este segmento, Samsung se apoya en una de las mayores capacidades de producción de DRAM del mercado, además de infraestructuras dedicadas específicamente a HBM, lo que le permite ofrecer una cadena de suministro más resiliente en un contexto de fuerte aumento de la demanda.

La compañía destaca el papel de la llamada Design Technology Co-Optimization (DTCO) entre sus divisiones de Fundición y Memoria, que permite coordinar mejor diseño y proceso de fabricación, con el objetivo de asegurar altos estándares de calidad y fiabilidad en los nuevos productos HBM4.

A ello se suma la experiencia interna en tecnologías de advanced packaging, un elemento crucial en memorias apiladas de este tipo, que contribuye a acortar los ciclos de producción y reducir los tiempos de entrega, algo muy valorado por fabricantes de GPU, integradores de sistemas y grandes proveedores de nube.

En paralelo, Samsung prevé ampliar el alcance de su colaboración técnica con socios clave, incluyendo a fabricantes globales de GPU y grandes operadores de nube (hyperscalers), con el foco puesto en el desarrollo de ASIC y soluciones personalizadas de próxima generación para cargas de trabajo de IA.

Mirando a los próximos años, la compañía anticipa que sus ventas de HBM se multiplicarán por más de tres en 2026 respecto a 2025 y ya está expandiendo su capacidad de producción de HBM4 para responder a ese crecimiento. Tras la introducción comercial actual, Samsung espera iniciar el muestreo de HBM4E en la segunda mitad de 2026 y comenzar a enviar muestras de versiones personalizadas en 2027, ajustadas a los requisitos específicos de cada cliente.

Fin de memoria DDR4
Artículo relacionado:
El adiós a la memoria DDR4: el cambio que revolucionará la RAM

En conjunto, la puesta en marcha del primer HBM4 comercial de la industria por parte de Samsung marca un punto de inflexión en el mercado de memoria para IA y centros de datos, con un producto que combina más velocidad, mayor ancho de banda, capacidades superiores y mejor eficiencia energética. A medida que los grandes actores de hardware y nube integren esta tecnología en sus plataformas, se espera que su impacto se deje notar también en Europa y España a través de servicios más potentes, infraestructuras mejor optimizadas y una nueva generación de aplicaciones basadas en inteligencia artificial.