OpenAI y Cerebras cierran un macroacuerdo de 10.000 millones para asegurar chips de IA

Última actualización: enero 18, 2026
  • OpenAI firma con Cerebras un contrato plurianual valorado en 10.000 millones de dólares para sumar potencia de cómputo
  • El acuerdo busca reducir la dependencia de los chips de Nvidia en las tareas de inferencia de modelos de inteligencia artificial
  • La compañía de Sam Altman diversifica proveedores con Cerebras, AMD, Amazon (Trainium) y el desarrollo de un chip propio
  • OpenAI prevé grandes inversiones y pérdidas hasta 2030 para escalar hasta 250 GW de potencia de cómputo

Acuerdo OpenAI Cerebras chips IA

La búsqueda de alternativas a los chips de Nvidia ha dado un salto mayúsculo con el nuevo movimiento de OpenAI. La empresa detrás de ChatGPT ha alcanzado un macroacuerdo de 10.000 millones de dólares con Cerebras Systems, un fabricante de semiconductores especializado en computación para inteligencia artificial, con el objetivo de asegurarse suficiente capacidad de procesamiento para sus modelos en los próximos años.

Este contrato a varios años supone un paso más en la estrategia de la firma dirigida por Sam Altman para garantizar suministro de chips y reducir su dependencia tecnológica de Nvidia, cuyo dominio en el mercado de procesadores de IA ha tensionado la disponibilidad y los precios a escala global, también en Europa y España, donde cada vez más empresas recurren a servicios de IA generativa en la nube.

Un contrato de 10.000 millones para asegurar potencia de cómputo

Según los detalles conocidos, OpenAI se ha comprometido a comprar a Cerebras capacidad de cálculo equivalente a 750 megavatios (MW) hasta 2028. Esta cifra ilustra la magnitud del acuerdo: se trata de un volumen de potencia de cómputo inusual incluso en un sector acostumbrado a las grandes infraestructuras de centros de datos.

La compañía utilizará los procesadores desarrollados por Cerebras principalmente para las tareas de inferencia de sus modelos, es decir, la fase en la que los sistemas de IA generan respuestas en tiempo real a partir de los datos ya entrenados. En la práctica, esto se traduce en más capacidad para dar servicio a la creciente base de usuarios de ChatGPT y otras herramientas basadas en sus modelos.

Te puede interesar:  Observatorio IAON: radiografía del conocimiento y uso de la inteligencia artificial en España

ChatGPT, que se ha consolidado como uno de los servicios de IA más utilizados en Europa y España, suma ya más de 800 millones de usuarios activos semanales, lo que exige una infraestructura tecnológica capaz de responder a millones de peticiones simultáneas a cualquier hora del día.

Cerebras, valorada en torno a 8.000 millones de dólares en su última ronda de financiación, defiende que sus chips permiten que los modelos de IA respondan de forma más rápida y eficiente frente a las soluciones de algunos competidores. De confirmarse en despliegues reales a gran escala, esto podría traducirse en tiempos de respuesta más ágiles y costes de operación potencialmente menores para clientes y socios, incluidos los europeos.

Infraestructura chips IA OpenAI Cerebras

Reducir la dependencia de Nvidia y diversificar proveedores

Más allá de la cifra llamativa, el acuerdo con Cerebras encaja en una estrategia más amplia de diversificación de proveedores por parte de OpenAI. El peso de Nvidia en el mercado de GPU para inteligencia artificial ha provocado cuellos de botella, lo que ha impulsado a muchos actores a explorar alternativas para no depender de un único suministrador clave.

En este sentido, OpenAI ya había firmado previamente un gran pacto con AMD para incorporar sus chips a las tareas de inferencia. La entrada de AMD, junto a otros proveedores, busca conservar margen de maniobra ante posibles tensiones de oferta, cambios regulatorios o variaciones bruscas de precios en el mercado de hardware especializado.

A esta lista se suma también el uso de procesadores Trainium de Amazon Web Services (AWS), integrados dentro de un contrato de 38.000 millones de dólares. Este acuerdo con Amazon no solo garantiza potencia de cálculo en la nube, sino que refuerza la alianza estratégica entre OpenAI y uno de los principales operadores de infraestructura digital a nivel mundial, con fuerte presencia en la Unión Europea.

Paralelamente, la empresa está trabajando en el desarrollo de un chip propio en colaboración con Broadcom. Este proyecto, todavía en curso, persigue conseguir un mayor control sobre la cadena de suministro, optimizar costes a largo plazo y adaptar el diseño de los chips a las necesidades específicas de sus modelos más avanzados.

Te puede interesar:  Wearables en el punto de mira: datos, privacidad y la nueva ola de IA

Este mosaico de acuerdos con Cerebras, AMD, Amazon y Broadcom muestra hasta qué punto la industria de la IA está intentando evitar depender exclusivamente de un solo fabricante de semiconductores, un aspecto que preocupa especialmente a los reguladores europeos, muy atentos a la concentración de poder en determinados segmentos tecnológicos.

Una carrera por escalar hasta 250 GW de potencia de cómputo

Las cifras ligadas a los planes de expansión de OpenAI dan una idea del nivel de inversión que se avecina. La empresa ha asumido ya compromisos de compra de infraestructura por más de 1,4 billones de dólares (trillion en terminología anglosajona) para la próxima década, con el objetivo de asegurar recursos suficientes tanto para entrenar nuevos modelos como para ejecutar los ya existentes.

Dentro de esta hoja de ruta, la compañía se ha marcado la meta de alcanzar los 250 gigavatios (GW) de potencia de cómputo para 2033, aproximadamente cien veces su capacidad actual. Un salto de esta magnitud implica una expansión masiva de centros de datos, acuerdos energéticos y despliegue de nuevas generaciones de chips, con impacto directo en redes eléctricas y políticas energéticas, también en Europa.

Este nivel de ambición llega acompañado de fuertes desequilibrios financieros a corto y medio plazo. Los análisis de mercado apuntan a que la empresa no espera entrar en beneficios hasta, al menos, 2030, un horizonte temporal relativamente largo para un proyecto tecnológico de esta envergadura.

Algunos analistas, como Gene Munster, de la firma Deepwater, calculan que OpenAI podría registrar pérdidas acumuladas de entre 100.000 y 150.000 millones de dólares en el periodo 2025-2029, fruto principalmente del enorme gasto en infraestructura, chips avanzados y energía necesario para sostener el crecimiento del negocio.

Centros de datos y potencia de computo IA

Financiación, valoración y riesgo de burbuja en la IA

Para sostener este ritmo de inversión, OpenAI está preparando una nueva ronda de financiación de hasta 100.000 millones de dólares a lo largo de este año. De cerrarse en esas cifras, la valoración de la empresa podría dispararse hasta los 830.000 millones de dólares, un nivel que la situaría entre las compañías tecnológicas de mayor capitalización del mundo.

Te puede interesar:  Cómo saber qué canción suena en YouTube

Esta posible valoración ha reavivado el debate sobre si el sector de la inteligencia artificial está incurriendo en una burbuja, especialmente a medida que proliferan las grandes inversiones en hardware, centros de datos y modelos de lenguaje cada vez más costosos. En Europa, donde se sigue con atención la evolución del mercado, algunos inversores y reguladores recelan de que las expectativas se hayan disparado demasiado rápido.

Aun así, muchos actores del ecosistema tecnológico europeo consideran que la demanda de servicios de IA seguirá creciendo, desde asistentes de productividad para empresas hasta soluciones específicas para sectores como la salud, la administración pública o la industria manufacturera. En este contexto, garantizar un suministro estable de chips y potencia de cálculo se percibe como una condición imprescindible para no quedarse atrás.

Desde el punto de vista de la competencia, el acuerdo entre OpenAI y Cerebras envía una señal clara: los fabricantes alternativos a Nvidia ganan peso en la hoja de ruta de las grandes plataformas de IA. Este giro podría abrir oportunidades para que otros diseñadores de chips, incluidos los que operan o fabrican dentro del territorio europeo, se posicionen como socios estratégicos en la próxima oleada de despliegue de infraestructuras de IA.

El pacto de 10.000 millones entre OpenAI y Cerebras se interpreta como un síntoma de la nueva fase de la carrera por la inteligencia artificial: una etapa en la que asegurar hardware y energía es tan crítico como desarrollar los propios modelos. Mientras se suceden las inversiones millonarias y crecen las dudas sobre posibles burbujas, empresas, gobiernos y usuarios en Europa observan de cerca cómo estas decisiones configuran el futuro del ecosistema digital y el acceso a servicios de IA avanzados.

Chips IA Nvidia
Artículo relacionado:
Nvidia y el liderazgo global de los chips de inteligencia artificial