- La Xsight Labs E1 DPU integra 64 núcleos Arm Neoverse N2 y hasta 800 Gbps de red en una arquitectura totalmente definida por software.
- Ofrece hasta 4 canales DDR5, 32-40 líneas PCIe Gen5 y aceleración inline de seguridad y almacenamiento para IA, nube y edge.
- Se presenta en múltiples formatos (SoC, tarjeta PCIe, servidor 1U) pensados para data centers, proveedores cloud y startups tecnológicas.
- Su enfoque programable y abierto la diferencia de las DPUs tradicionales de Nvidia, Intel o AMD en entornos de IA y almacenamiento distribuido.
La llegada de la Xsight Labs E1 DPU está empezando a mover ficha en el mercado de infraestructura para centros de datos, nube pública y proyectos de inteligencia artificial, también en Europa. Esta nueva familia de procesadores de datos combina 64 núcleos Arm Neoverse N2 con una conectividad de hasta 800 Gbps, apuntando directamente a los cuellos de botella habituales en redes y almacenamiento de alto rendimiento.
En lugar de limitarse a ser una tarjeta de red rápida, la E1 busca actuar como un motor programable de red, seguridad y almacenamiento. Gracias a su arquitectura totalmente definida por software, los operadores de data center, proveedores cloud y startups europeas pueden adaptar la DPU a sus propios flujos de trabajo, desde IA generativa y análisis de datos masivos hasta servicios de edge computing o almacenamiento distribuido.
Qué es la Xsight Labs E1 DPU y qué papel puede jugar en los centros de datos
La Xsight Labs E1 es una DPU (Data Processing Unit) diseñada como SoC programable, con 64 núcleos Arm Neoverse N2 v9.0-A orientados a tareas de red, seguridad y gestión de datos. No pretende sustituir a la CPU principal, sino descargarle todo lo posible la parte de networking, virtualización, almacenamiento y control de infraestructura, algo especialmente crítico en clusters de IA, nubes privadas y entornos multitenant.
En términos de red, el chip permite alcanzar hasta 800 Gbps de throughput, que se pueden configurar en 2x400G, 4x200G u 8 enlaces de 100/50/25G, cubriendo tanto despliegues de backbone de data center como escenarios de agregación o acceso. Esta flexibilidad está pensada para integrarse en arquitecturas modernas tipo leaf-spine y para dar soporte a entornos de IA con tráfico este-oeste muy intenso.
La DPU incorpora además 32 MB de memoria interna para acelerar el plano de datos y soporta hasta 4 canales DDR5 a 5200 MT/s, con un ancho de banda agregado aproximado de 166 GB/s. El cifrado de memoria mediante AES-XTS inline añade una capa de protección relevante para operadores europeos que deben lidiar con normativas como RGPD o requisitos sectoriales en banca, salud o administración pública.
Xsight Labs comercializa la E1 en varios formatos: desde el SoC para integradores y fabricantes de servidores, hasta tarjetas PCIe (como la E1-AIC) y soluciones tipo servidor 1U con varias DPUs por nodo. Esto permite que tanto grandes hiperescaladores como proveedores regionales o startups puedan encajar la plataforma en arquitecturas nuevas o ya existentes.
Especificaciones clave: cómputo, memoria y conectividad

En el plano de cómputo, la E1 se basa en 64 núcleos Arm Neoverse N2 con soporte para funciones de calidad de servicio, NUMA y MPAM, lo que facilita particionar y aislar recursos entre distintos tenants o servicios. Esta capacidad de segmentar el hardware es especialmente útil en nubes públicas, plataformas de hosting y servicios SaaS que operan en territorio europeo.
Respecto a la memoria, la DPU admite hasta cuatro canales de DDR5 a 5200 MT/s, con cifrado en línea, y variantes de producto como la E1-AIC integran 32 GB de DDR5 onboard. De este modo, la propia tarjeta puede trabajar de forma bastante autónoma, gestionando tablas de enrutamiento, políticas de seguridad, cachés de almacenamiento o metadatos de IA sin depender de la RAM del servidor principal.
En conectividad, la E1 ofrece entre 32 y 40 líneas PCIe Gen5, lo que permite enlazar GPUs, SSDs NVMe, FPGAs u otros aceleradores directamente a la DPU. También habilita configuraciones multi-host, en las que varios servidores comparten la misma DPU, o diseños en los que la E1 actúa como enlace inteligente entre GPU y red Ethernet.
Para la parte puramente de red, el uso de puertos duales QSFP112 facilita integrar la E1 en entornos de 400G y 800G cada vez más habituales en data centers orientados a IA. Esta combinación de cómputo Arm, DDR5 y líneas PCIe Gen5 convierte a la DPU en una pieza central capaz de coordinar tráfico, seguridad y almacenamiento a muy alta velocidad.
En despliegues densos, los fabricantes plantean configuraciones con hasta cinco E1 en un chasis 1U, alcanzando del orden de 4 Tbps agregados. Para operadores europeos con limitaciones de espacio y consumo en sus centros de datos urbanos, esta densidad puede ser un argumento de peso.
Arquitectura definida por software y ecosistema de desarrollo
Uno de los elementos que más diferencian a la E1 es su enfoque de arquitectura completamente definida por software. A diferencia de algunas DPUs donde buena parte de la lógica viene fijada en hardware, en la propuesta de Xsight Labs el plano de datos es altamente programable, permitiendo adaptar el comportamiento de la tarjeta a cada caso de uso.
La DPU está optimizada para Linux y para frameworks como DPDK, SPDK y XDP, habituales en entornos de redes y almacenamiento de muy baja latencia. Esto permite a los equipos de ingeniería desarrollar pipelines de procesamiento de paquetes, funciones de seguridad, routing avanzado o compresión y cifrado de datos directamente sobre los núcleos Arm de la DPU.
Otra de las ideas clave es que la E1 puede comportarse como un servidor definido por software en el borde o en la nube, conectando de forma directa GPUs, SSDs y otros dispositivos sin necesidad de recurrir siempre a una CPU x86 tradicional. De este modo, algunas tareas de control, orquestación o gestión de almacenamiento se liberan del servidor principal y se trasladan a la DPU.
La arquitectura también reduce la dependencia de la IP clásica de la NIC, ya que muchas funciones de red y virtualización se gestionan directamente desde los núcleos Arm. Para los operadores de plataformas de IA en Europa, esto abre la puerta a topologías de red más planas y abiertas, que encajan mejor con estrategias de multicloud y proveedores de distinto origen.
El diseño abierto, la documentación pública de la serie E y la existencia de hojas de producto específicas para el SoC, las tarjetas AIC y los servidores facilitan la integración por parte de fabricantes de hardware europeos, integradores de sistemas y proveedores de servicios gestionados.
Aplicaciones en IA, almacenamiento y redes programables
La vocación principal de la E1 es servir como base para infraestructura de IA y almacenamiento de nueva generación. En el campo de la inteligencia artificial, la DPU puede encargarse de gestionar el tráfico entre GPUs, coordinar el acceso a grandes volúmenes de datos y aplicar políticas de seguridad y segmentación sin cargar a la CPU del host.
Un caso representativo es el de Hammerspace, que utiliza la E1 para habilitar un modelo de almacenamiento AI «warm» sobre Ethernet. Con esta aproximación, las GPUs acceden a los datos a través de una red plana y programable, donde la DPU se ocupa de optimizar rutas, gestionar cachés y aplicar compresión o cifrado según sea necesario, algo especialmente interesante para grandes repositorios de datos usados de forma frecuente pero no crítica.
En aplicaciones de edge computing y web de alto tráfico, la E1 puede convertirse en el punto donde se concentran las funciones de equilibrado de carga, firewall, cifrado TLS, filtrado y registro. Las operaciones que antes se repartían entre varias cajas (firewalls, balanceadores, gateways de almacenamiento) se consolidan en una DPU programable.
El uso en almacenamiento distribuido también resulta relevante: al contar con aceleradores inline para seguridad y offload de almacenamiento, la E1 puede asumir tareas como cálculo de paridad, deduplicación, compresión o manejo de metadatos directamente en el plano de datos, reduciendo la carga de las CPUs del clúster de almacenamiento.
Para empresas tecnológicas europeas que trabajan en servicios cloud, SaaS, fintech, ciberseguridad o analítica avanzada, esta combinación de capacidades abre la posibilidad de construir plataformas más eficientes en coste, con latencias menores y un mayor control sobre cómo se mueven y procesan los datos dentro del data center.
Diferencias frente a otras DPUs del mercado
Comparada con las soluciones de Nvidia, Intel o AMD, la propuesta de Xsight Labs se apoya en varios factores diferenciales. En primer lugar, el enfoque 100 % software-defined del plano de datos, que da un margen amplio para personalizar y adaptar la DPU a la lógica de cada proveedor de servicios.
En segundo lugar, la combinación de 64 núcleos Arm Neoverse con hasta 800 Gbps de capacidad de red busca un equilibrio entre capacidad de cómputo para tareas de infraestructura y un throughput suficiente para cargas de IA y almacenamiento intensivas en tráfico este-oeste. Esto es clave en clusters de IA donde el movimiento de datos entre nodos puede volverse el auténtico cuello de botella.
Otro aspecto a tener en cuenta es el modelo de despliegue modular. La posibilidad de instalar varias E1 en un mismo chasis y escalar de forma casi lineal el ancho de banda y la potencia de procesamiento de datos ofrece un camino de crecimiento ordenado para proveedores cloud europeos y operadores de data center regionales.
Además, el diseño orientado a interoperabilidad en entornos multivendor facilita convivir con otras tecnologías de red y aceleración ya presentes en los centros de datos. La DPU no fuerza un ecosistema cerrado, sino que se integra en arquitecturas estándar, algo valorado por quienes quieren evitar dependencias excesivas de un solo proveedor.
A nivel de consumo y densidad, el planteamiento de ofrecer mucha capacidad de red y cómputo de infraestructura en formatos compactos encaja con la presión que existe en Europa para mejorar la eficiencia energética y optimizar el uso de espacio en instalaciones ya consolidadas.
Adopción, formatos disponibles y perspectivas en Europa
La familia E1 se ofrece en diferentes variantes para cubrir tanto integraciones a medida como despliegues más directos. A partir del SoC, los fabricantes pueden diseñar placas o soluciones propias, mientras que las tarjetas PCIe E1-AIC permiten incorporar la DPU en servidores existentes mediante expansión, sin rediseñar toda la plataforma.
En el segmento de despliegues densos, los servidores 1U con varias E1 apuntan a data centers que quieren construir nodos especializados de red y almacenamiento para IA, funcionando como puertas de entrada hacia clusters de GPU o como elementos clave en arquitecturas de almacenamiento distribuido.
La validación a gran escala de la E1 en entornos de 800G, con pruebas de rendimiento y de seguridad inline, posiciona a Xsight Labs como un actor a seguir en el mercado de DPUs orientadas a IA y redes de próxima generación. Su uso en soluciones de almacenamiento AI «warm» refleja que la tecnología no se queda en la teoría, sino que ya está formando parte de ofertas comerciales.
En Europa, donde el debate sobre soberanía digital, protección de datos y eficiencia energética está muy presente, una DPU con enfoque abierto, programable y soporte para normativas de seguridad avanzadas puede resultar especialmente atractiva. Tanto grandes proveedores cloud con presencia europea como operadores regionales y startups de infraestructura pueden encontrar en la E1 una opción para reforzar sus plataformas.
Todo apunta a que el papel de las DPUs —y en concreto de modelos como la Xsight Labs E1— irá creciendo a medida que las cargas de trabajo de IA, automatización y análisis de datos sigan presionando la capacidad de las infraestructuras actuales. Para el ecosistema tecnológico europeo, contar con alternativas de este tipo añade margen de maniobra a la hora de diseñar centros de datos más flexibles y preparados para el futuro.
La Xsight Labs E1 DPU se perfila así como una opción sólida para quienes necesitan combinar 64 núcleos Arm Neoverse, 800 Gbps de red y una arquitectura totalmente programable en un mismo componente, permitiendo rediseñar cómo se gestionan el tráfico, la seguridad y el almacenamiento en centros de datos, nubes públicas y despliegues de IA tanto en España como en el resto de Europa.