Renuncia la jefa de hardware de OpenAI por su acuerdo con el Pentágono

Última actualización: marzo 12, 2026
  • La responsable de hardware y robótica de OpenAI, Caitlin Kalinowski, dimite por desacuerdos éticos con el contrato de la empresa con el Pentágono.
  • El acuerdo abre la puerta al uso de la IA de OpenAI en ciberseguridad, inteligencia y logística militar, con promesas de no aplicarla a vigilancia doméstica ni armas autónomas.
  • La renuncia visibiliza una fuerte división interna sobre gobernanza, salvaguardas y uso bélico de la IA, y provoca un impacto reputacional y de usuarios en ChatGPT.
  • El caso reabre el debate en Europa y a nivel global sobre los límites éticos de la IA militar y la responsabilidad de las empresas tecnológicas.

Directiva de hardware de OpenAI dimite por acuerdo con el Pentágono

La frontera entre la tecnología civil y el uso militar de la inteligencia artificial se ha convertido en uno de los campos de batalla políticos y éticos más delicados del momento. En plena escalada de inversiones en defensa impulsadas por la IA, OpenAI se ha visto sacudida por la dimisión de la responsable de su infraestructura de hardware y robótica, una salida que expone con crudeza esas tensiones internas.

La renuncia de Caitlin Kalinowski, máxima responsable del área de hardware en OpenAI, llega como reacción directa al acuerdo de colaboración con el Departamento de Defensa de Estados Unidos. Su marcha no es un simple relevo en la cúpula: para muchos dentro y fuera del sector, es la evidencia de que el giro de la empresa hacia el complejo militar ha cruzado una línea que parte del talento no está dispuesta a aceptar.

Quién es Caitlin Kalinowski y qué papel tenía en OpenAI

Antes de aterrizar en OpenAI, Kalinowski ya era una figura de peso en Silicon Valley. Con una trayectoria consolidada en Apple, donde colaboró en el diseño de MacBook, y más tarde en Meta, liderando el desarrollo de dispositivos de realidad aumentada como las gafas Orion, fue fichada a finales de 2024 para levantar desde cero el área de hardware de la compañía de Sam Altman.

En menos de año y medio, impulsó un laboratorio de robótica en San Francisco con alrededor de 100 personas entre investigadores e ingenieros de datos, centrado en entrenar brazos robóticos y sistemas físicos capaces de asumir tareas domésticas y de manipulación avanzada. OpenAI incluso contemplaba habilitar un segundo centro en Richmond (California), con la vista puesta en futuros robots humanoides basados en sus modelos de lenguaje.

Bajo su batuta, el hardware de OpenAI dejó de ser un elemento accesorio. Pasó a convertirse en pieza estratégica tanto para los proyectos de robótica como para las infraestructuras de cómputo que sustentan los modelos de IA generativa, visión por computador y análisis de datos en tiempo real que la empresa está desplegando a gran escala.

Acuerdo de OpenAI con el Pentágono

Qué implica el acuerdo de OpenAI con el Pentágono

El contrato entre OpenAI y el Departamento de Defensa estadounidense se ha negociado con un nivel de discreción poco habitual en este tipo de alianzas tecnológicas. La compañía ha explicado que su papel se centra en proporcionar modelos de IA y capacidad de procesamiento para tareas de ciberseguridad, análisis de inteligencia y logística militar, es decir, ámbitos considerados “críticos” para la seguridad nacional de Estados Unidos.

Te puede interesar:  Google NotebookLM incorpora los Video Overviews y renueva su Studio Panel

Aunque la empresa insiste en que el acuerdo no está pensado para crear armas plenamente autónomas ni sistemas de vigilancia masiva doméstica, el despliegue no se limita a software “de oficina”. Según las informaciones disponibles, el Pentágono obtendrá acceso a hardware de cómputo avanzado y algoritmos de optimización que pueden utilizarse para planificar operaciones, gestionar grandes volúmenes de datos tácticos e incluso alimentar sistemas de apoyo a la decisión en escenarios de combate.

En la práctica, esto significa que las mismas arquitecturas que hoy sostienen ChatGPT y otros modelos de OpenAI podrían ejecutarse también en redes clasificadas del Pentágono, integradas en infraestructura militar y redes de mando y control. Este salto, para los críticos, supone transformar a OpenAI de actor centrado en la innovación civil a proveedor relevante del ecosistema de defensa.

La compañía ha defendido públicamente que el acuerdo establece “líneas rojas” claras: no permitir el empleo deliberado de sus sistemas para vigilancia de ciudadanos estadounidenses sin orden judicial y no alimentar armamento autónomo letal sin supervisión humana. Sin embargo, algunos altos cargos del Departamento de Defensa han sugerido que los modelos podrían usarse para “todos los fines legales”, un matiz que ha encendido aún más el debate interno.

Las razones de la renuncia: principios, vigilancia y autonomía letal

En una serie de mensajes publicados en X (antes Twitter), Caitlin Kalinowski explicó que su salida era “una cuestión de principios”. Reconoció que la IA puede desempeñar un papel relevante en seguridad nacional, pero marcó dos límites que consideraba inviolables: la vigilancia de ciudadanos sin control judicial y la posibilidad de que la tecnología derive en autonomía letal sin intervención humana.

La ingeniera subrayó que estas “líneas” no se debatieron a fondo antes de cerrar el acuerdo, criticando tanto la velocidad del anuncio como la ausencia de salvaguardas definidas desde el primer momento. A su juicio, se trataba ante todo de un fallo de gobernanza interna en la forma de tomar decisiones sobre un asunto con implicaciones potencialmente irreversibles.

Al mismo tiempo, quiso dejar claro que su dimisión no respondía a desavenencias personales: expresó un profundo respeto por Sam Altman y por el equipo con el que había trabajado, y se mostró orgullosa del proyecto de robótica que ayudó a levantar. Precisamente por eso, recalcó, la decisión de marcharse no fue sencilla.

La salida de quien había construido el área de hardware de OpenAI desde los cimientos envía un mensaje incómodo para la empresa: cuando quienes diseñan los “hierros” y las infraestructuras de cómputo consideran que el rumbo ético ha cambiado demasiado rápido, un contrato millonario puede convertirse en un problema de credibilidad.

Te puede interesar:  El customer journey se redefine con empatía, IA y datos accionables

Robótica e infraestructura de OpenAI

La respuesta oficial de OpenAI y las “líneas rojas”

Tras conocerse la renuncia, OpenAI remitió un comunicado a varios medios tecnológicos en el que confirmaba la salida de Kalinowski y defendía la naturaleza del acuerdo con el Pentágono. La empresa insistió en que el pacto “abre un camino viable para usos responsables de la IA en seguridad nacional” y reiteró sus dos prohibiciones explícitas: nada de vigilancia doméstica y nada de armas autónomas letales.

La compañía sostuvo que su enfoque de seguridad es “más amplio y en varias capas”, ya que no se apoya solo en el lenguaje contractual: también incorpora salvaguardas técnicas y restricciones de uso en los modelos para tratar de impedir aplicaciones que vulneren sus compromisos públicos. Desde OpenAI se ha subrayado además la voluntad de dialogar con empleados, gobiernos, sociedad civil y comunidades internacionales sobre los riesgos y límites de estos sistemas.

Sin embargo, la comunicación de crisis ha llegado a destiempo para parte de la plantilla. Entre los trabajadores de OpenAI y otras empresas del sector se han difundido cartas abiertas firmadas por centenares de empleados que reclaman frenar o revisar drásticamente los acuerdos de vigilancia e IA militar. En ese contexto, la renuncia de Kalinowski ha funcionado como un detonante simbólico que da rostro a unas tensiones que ya venían acumulándose.

El propio Sam Altman ha reconocido en reuniones internas y en redes sociales que el anuncio del acuerdo fue “precipitado”, admitiendo que el movimiento se percibió como “oportunista y descuidado”. A raíz de las críticas, la empresa asegura haber reforzado las cláusulas de salvaguarda, aunque no todos en la organización consideran que sea suficiente.

Impacto en la división de robótica y en la estrategia de hardware

La marcha de Kalinowski deja a OpenAI sin la persona que había articulado su apuesta por la robótica y el hardware propio. Aunque estos proyectos aún no forman parte del núcleo de ingresos de la empresa, sí eran una apuesta estratégica a medio y largo plazo para llevar la IA generativa al mundo físico, desde robots domésticos hasta dispositivos especializados.

Sin su liderazgo, la división de robótica tendrá que reorganizarse y redefinir prioridades. El equipo sigue en funcionamiento, pero pierde a quien manejaba la visión técnica, la coordinación con socios industriales y la planificación a futuro de la infraestructura. En un escenario donde compite con Figure AI, Tesla o nuevas startups centradas en robótica humanoide, este tipo de vacíos de liderazgo puede traducirse en retrasos y pérdida de ventaja competitiva.

La renuncia también arroja dudas sobre otros proyectos de hardware de consumo que se han rumoreado en torno a OpenAI, incluyendo dispositivos experimentales en colaboración con diseñadores de renombre de la industria tecnológica. Cualquier plan que requiera un ecosistema de hardware propio ahora tendrá que lidiar con una reconstrucción del equipo y de la confianza interna.

Te puede interesar:  Cómo Era Siria Antes De La Guerra

Más allá de lo técnico, la salida reabre una cuestión de fondo: si la infraestructura de OpenAI —chips, centros de datos, robótica— se convierte en una pieza del engranaje militar de Estados Unidos, será más difícil convencer a ingenieros y socios europeos reticentes a verse vinculados a programas armamentísticos, especialmente en países donde el debate sobre IA y defensa está mucho más polarizado.

Debate ético sobre IA militar

Reacción de usuarios, rivalidad con Anthropic y eco en Europa

El impacto del acuerdo no se ha quedado dentro de los despachos. Tras el anuncio de la colaboración con el Pentágono, los datos de instalaciones móviles muestran un aumento de casi el 300 % en las desinstalaciones de la app de ChatGPT en apenas un día, según cifras adelantadas por medios especializados. Paralelamente, la aplicación Claude, de Anthropic, escaló posiciones en las tiendas digitales, situándose por delante o muy cerca de OpenAI en descargas.

Anthropic, fundada por antiguos empleados de OpenAI, ha adoptado una postura más restrictiva respecto a la colaboración con defensa. La compañía habría exigido condiciones mucho más duras para cualquier uso militar de sus modelos, especialmente en lo relativo a vigilancia masiva y sistemas de armas autónomas, lo que tensó sus negociaciones con el gobierno estadounidense. Esa actitud le ha valido, según diversas informaciones, el calificativo de “riesgo para la cadena de suministro” por parte del Pentágono, abriéndose así el camino para que OpenAI y otros proveedores asumieran un rol más central.

En Europa, donde se está terminando de concretar el marco regulatorio de la Ley de IA de la UE, este tipo de movimientos se sigue con interés y cierta inquietud. Gobiernos, reguladores y organizaciones civiles analizan cómo casos como el de OpenAI pueden influir en la redacción de normas sobre usos de alto riesgo, gobernanza de modelos fundacionales y transparencia en la colaboración entre grandes tecnológicas y ministerios de defensa.

Para usuarios y empresas europeas que integran IA en sus servicios, la polémica añade una capa adicional a la hora de elegir proveedor. Más allá de las prestaciones técnicas, la pregunta empieza a ser también qué tipo de compromisos éticos y de gobernanza asumen los desarrolladores de modelos cuando su tecnología entra en la esfera militar.

En conjunto, la dimisión de la jefa de hardware de OpenAI y la controversia en torno al acuerdo con el Pentágono han puesto bajo el foco el papel de la IA en la defensa y la seguridad, la fragilidad de las promesas de “no uso bélico” y la importancia de establecer salvaguardas reales —no solo en el papel— cuando la misma tecnología puede alimentar tanto herramientas de productividad como sistemas críticos para la guerra.

antropomorfización de la inteligencia artificial
Artículo relacionado:
Antropomorfización de la inteligencia artificial: riesgos, sesgos y oportunidades