NetApp refuerza su serie EF con nuevos sistemas de almacenamiento de alto rendimiento para IA y HPC

Última actualización: marzo 19, 2026
  • NetApp amplía su gama de sistemas EF con los modelos EF50 y EF80, enfocados en cargas de trabajo de IA, HPC y bases de datos exigentes.
  • Los nuevos equipos alcanzan más de 110 GB/s en lectura y 55 GB/s en escritura, con una mejora de rendimiento del 250 % frente a la generación anterior.
  • Con hasta 1,5 PB en 2U y 63,7 GB/s por kW, combinan alta densidad, eficiencia energética y costes contenidos para centros de datos modernos.
  • La integración con sistemas de archivos paralelos como Lustre y BeeGFS permite mantener las GPU al máximo rendimiento en proyectos de IA y simulaciones científicas.

Sistema de almacenamiento de alto rendimiento

La irrupción de la inteligencia artificial y la computación de alto rendimiento está disparando las necesidades de almacenamiento rápido, escalable y con baja latencia en empresas y centros de datos europeos. En este contexto, NetApp ha dado un paso más en su estrategia de infraestructura de datos inteligente con una nueva generación de cabinas especialmente orientadas a cargas de trabajo exigentes.

La compañía ha presentado los modelos NetApp EF50 y EF80, nueva evolución de su conocida serie EF, concebida para responder a entornos donde cada segundo cuenta: desde el entrenamiento de modelos de IA generativa hasta las bases de datos transaccionales de misión crítica, pasando por simulaciones científicas y entornos de neocloud que operan a gran escala.

Nuevos sistemas EF50 y EF80: foco total en el rendimiento bruto

Los nuevos sistemas de la serie EF se han diseñado pensando en escenarios donde el cuello de botella suele estar en el almacenamiento, no en la potencia de cálculo. NetApp orienta estos equipos a organizaciones que necesitan sostener flujos de datos continuos hacia GPU y CPU de última generación sin que el subsistema de disco se quede atrás.

Según los datos facilitados por la compañía, los EF50 y EF80 superan los 110 GB/s de ancho de banda en lectura y alcanzan unos 55 GB/s en escritura, lo que representa un incremento aproximado del 250 % frente a la generación precedente de la misma familia. Estas cifras buscan dar respuesta a cargas que procesan ingentes volúmenes de información en muy poco tiempo, típicas de la analítica avanzada o la IA generativa.

Este salto de rendimiento se apoya en una arquitectura all-flash optimizada para almacenamiento en bloque de altas prestaciones, pensada para integrarse con aplicaciones que requieren I/O sostenido y latencias muy reducidas. El objetivo es que el sistema pueda alimentar sin interrupciones los procesos de entrenamiento y de inferencia de IA, así como aplicaciones financieras, industriales o científicas con un uso intensivo de disco.

Para empresas y proveedores de servicios en la nube de nueva generación, la propuesta de NetApp se orienta a facilitar la implantación de proyectos complejos sin aumentar en exceso la huella de infraestructura ni el esfuerzo de administración, algo especialmente relevante en entornos multi‑nube y centros de datos distribuidos que empiezan a ser habituales en Europa.

Te puede interesar:  Cómo poner doble pantalla en el ordenador

IA, HPC y bases de datos: casos de uso en el punto de mira

El lanzamiento de los EF50 y EF80 se enmarca en un momento en el que la IA generativa, las simulaciones HPC y las bases de datos críticas se han convertido en el núcleo de muchas estrategias de transformación digital. NetApp apunta directamente a estos escenarios, así como a nuevas tendencias como las nubes de IA soberanas, especialmente relevantes para el mercado europeo por las exigencias regulatorias y de protección de datos.

En el ámbito de la inteligencia artificial, los nuevos sistemas pretenden cubrir todo el ciclo de vida del dato: desde la recopilación y preparación de grandes conjuntos de entrenamiento hasta el suministro de información a los modelos que generan resultados para el negocio. El objetivo es que el almacenamiento no limite la velocidad con la que las organizaciones pueden iterar y mejorar sus modelos.

En computación de alto rendimiento, la serie EF renovada se dirige a simulaciones científicas, análisis de ingeniería, investigación académica y proyectos de modelización que requieren acceso masivo a datos. En este terreno, mantener las GPU trabajando al 100 % es clave, y cualquier espera producida por el almacenamiento se traduce en recursos infrautilizados y costes innecesarios.

En el área de bases de datos, tanto en entornos on‑premises como en nubes privadas o soberanas, las nuevas cabinas buscan ofrecer un equilibrio entre rendimiento y eficiencia para bases de datos transaccionales de gran tamaño, donde la velocidad de lectura y escritura impacta de lleno en la experiencia de usuario y en la capacidad de reaccionar en tiempo real.

Para la industria manufacturera, la propuesta también incluye casos de uso de aplicaciones de IA en planta, desde control de calidad automatizado hasta mantenimiento predictivo, donde la combinación de sensores, vídeo y datos históricos exige una base de almacenamiento robusta y con un throughput sostenido.

Integración con sistemas de archivos paralelos y GPU

Uno de los puntos destacados de la nueva generación EF es su integración con sistemas de archivos paralelos de alto rendimiento como Lustre y BeeGFS. Esta combinación está pensada para entornos HPC y de IA a gran escala, donde múltiples nodos de cómputo acceden simultáneamente a los mismos conjuntos de datos.

Al apoyarse en estos sistemas de archivos, los EF50 y EF80 pueden actuar como almacenamiento temporal de muy alta velocidad que alimenta a clústeres de GPU y CPU sin que se produzcan cuellos de botella. De este modo, se aceleran procesos como simulaciones científicas, renderizado de contenidos multimedia o entrenamiento de grandes modelos de lenguaje.

Este enfoque resulta especialmente interesante para proveedores de neocloud y centros de datos europeos que prestan servicios de IA y HPC a terceros, ya que necesitan ofrecer un rendimiento predecible y de alto nivel sin disparar los costes operativos ni la complejidad de la plataforma.

Te puede interesar:  Aprende cómo hacer Particiones del Disco Duro

La propia NetApp subraya que estas capacidades permiten a organizaciones tan dispares como estudios de cine con enormes bibliotecas multimedia o empresas centradas en neocloud aprovechar al máximo sus infraestructuras de cómputo, mejorando el uso efectivo de las GPU y reduciendo tiempos de espera en procesos intensivos.

En este contexto, la serie EF se posiciona como un pilar dentro del ecosistema de soluciones de la compañía, complementando otras líneas de producto centradas en la gestión de datos en entornos híbridos y multicloud.

Densidad, eficiencia energética y control de costes

Más allá de las cifras de rendimiento, NetApp pone el acento en la densidad de almacenamiento y la eficiencia energética de los EF50 y EF80. Cada sistema puede albergar hasta 1,5 PB en un chasis de solo 2U, una cifra que permite concentrar una gran capacidad en un espacio reducido de rack.

Esta densidad viene acompañada de un ancho de banda optimizado de hasta 63,7 GB/s por kW, lo que sitúa al sistema como una opción a considerar para organizaciones que buscan reducir el consumo energético por unidad de rendimiento, un factor que gana peso a medida que suben los costes energéticos y se endurecen los objetivos de sostenibilidad en la Unión Europea.

Con este planteamiento, la serie EF persigue ayudar a los centros de datos a contener tanto la factura eléctrica como los gastos de refrigeración, manteniendo al mismo tiempo un nivel de rendimiento adecuado para aplicaciones críticas. Para muchas empresas, este equilibrio entre potencia y consumo se ha convertido en un criterio de compra tan importante como la capacidad bruta.

NetApp también remarca que estos sistemas están pensados para facilitar el crecimiento progresivo: escalar capacidad y rendimiento sin penalizar la latencia, evitando que la expansión de los volúmenes de datos termine lastrando la agilidad de las aplicaciones.

Todo ello se traduce en una oferta que intenta cuadrar una ecuación compleja: rendimiento extremo, consumo contenido y coste por terabyte asumible, un triángulo que preocupa tanto a grandes corporaciones como a proveedores de servicios en la nube con presencia en varios países europeos.

Simplicidad operativa y soporte especializado

Otro de los ejes de la propuesta es la simplificación de la gestión del almacenamiento en entornos donde la complejidad suele dispararse. Los EF50 y EF80 se presentan como sistemas de almacenamiento en bloque orientados a reducir la fricción en la puesta en marcha y operación diaria.

La compañía incide en que la nueva generación EF está pensada para desplegarse de forma ágil en centros de datos ya existentes, integrándose con las herramientas de administración habituales y manuales de servidores y apoyándose en la experiencia acumulada de NetApp en soporte técnico especializado.

Para equipos de TI que manejan proyectos de IA, HPC y bases de datos críticos de forma simultánea, esta simplificación puede suponer un ahorro de tiempo apreciable, evitando que el almacenamiento se convierta en una pieza difícil de orquestar dentro de arquitecturas complejas.

Te puede interesar:  Cómo encender un ordenador

En paralelo, NetApp sitúa estos sistemas dentro de su estrategia más amplia de infraestructura de datos inteligente, en la que el almacenamiento deja de ser un mero repositorio para convertirse en un componente estrechamente ligado a la observabilidad, la resiliencia y la automatización de los flujos de datos, así como a un sistema de backups automáticos de los flujos de datos.

Este enfoque de plataforma es especialmente relevante en mercados como el español y el europeo, donde muchas organizaciones están desplegando arquitecturas híbridas que combinan nubes públicas, nubes privadas y entornos on‑premises, y necesitan una capa común que les permita mantener el control sobre sus datos.

Trayectoria, confianza del mercado y ecosistema de datos

La actualización de la serie EF se apoya en décadas de experiencia de NetApp en soluciones de almacenamiento empresarial. La compañía afirma superar el millón de sistemas instalados a nivel global, un historial que sirve como carta de presentación para quienes priorizan la fiabilidad en sus decisiones de compra.

Los nuevos EF50 y EF80 se integran en una plataforma de datos que NetApp describe como unificada, inteligente y preparada para entornos multinube, construida sobre su software ONTAP y reforzada mediante motores de automatización y análisis orientados a la IA.

El objetivo declarado es que los datos puedan moverse y aprovecharse de forma coherente en cualquier lugar: tanto en las grandes nubes públicas como en nubes soberanas europeas o en centros de datos propios, manteniendo políticas constantes de gobernanza y protección.

Este planteamiento busca dar respuesta a una preocupación cada vez más habitual en las empresas europeas: cómo conciliar la necesidad de explotar la IA a gran escala con los requisitos de seguridad, residencia del dato y cumplimiento normativo que impone la legislación comunitaria.

NetApp, que se define como proveedor de infraestructura de datos inteligente, sitúa así la serie EF como un elemento más de un ecosistema destinado a convertir los datos en un activo capaz de impulsar innovación, resiliencia y crecimiento, sin perder de vista las limitaciones prácticas de espacio, energía y presupuesto que afectan al día a día de cualquier centro de datos.

A la vista de las características técnicas y del posicionamiento de estos nuevos modelos, la serie EF renovada se perfila como una opción dirigida a organizaciones que dependen de cargas de trabajo de alto rendimiento y baja latencia y que necesitan que el almacenamiento acompañe el ritmo de la IA, el HPC y las bases de datos modernas, tanto en España como en el resto de Europa, sin sacrificar control de costes ni capacidad de adaptación futura.

que es cloudification
Artículo relacionado:
Qué es la cloudification y cómo está transformando las empresas