- El Código ético para la IA en la UE es una guía voluntaria para el sector antes de la entrada en vigor de la Ley de IA.
- Se centra en transparencia, derechos de autor y mitigación de riesgos sistémicos en modelos avanzados.
- Facilita a las empresas demostrar el cumplimiento y reduce la carga administrativa y la inseguridad jurídica.
- La adhesión al Código es opcional, pero se prevén directrices y posibles ajustes hasta agosto de 2025.

La Unión Europea ha dado un paso significativo hacia la regulación de la inteligencia artificial con la reciente recepción y presentación del Código de buenas prácticas para modelos de IA de uso general. Este documento, fruto de la colaboración de expertos y del aporte de más de mil partes interesadas, busca allanar el terreno para la futura entrada en vigor de la Ley de Inteligencia Artificial de la UE, que será de obligado cumplimiento a partir de agosto de 2025. El Código es de adhesión voluntaria, aunque supone una referencia esencial para los proveedores que pretendan operar con garantías en el mercado europeo.
La publicación del Código coincide con un clima de debate internacional sobre cómo combinar el desarrollo tecnológico con la protección de derechos fundamentales. Su objetivo es claro: ayudar a las empresas a cumplir con los nuevos requisitos legales mediante recomendaciones concretas, facilitando así la adaptación a unas normas que pretenden situar a Europa como referente ético de la IA.
Claves: transparencia, derechos de autor y gestión de riesgos
El Código aborda en profundidad tres aspectos prioritarios en el desarrollo y despliegue de la IA: la transparencia, el respeto a la propiedad intelectual y la seguridad. Para responder a la demanda de mayor claridad sobre cómo se usan y entrenan los modelos de IA, la guía incluye formatos sencillos para documentar las características principales de cada modelo, permitiendo así que los proveedores recopilen y publiquen información relevante de manera accesible.
En materia de derechos de autor, el texto recoge medidas prácticas para prevenir el uso de contenidos protegidos sin autorización e insta a establecer vías claras para que los titulares de derechos puedan presentar objeciones si consideran que su obra ha sido utilizada ilegalmente. La Comisión Europea subraya que estas indicaciones son esenciales para garantizar la compatibilidad con la legislación comunitaria vigente.
Uno de los puntos más sensibles son los riesgos sistémicos asociados a los modelos de IA más potentes. El Código exige a las empresas identificar posibles amenazas que puedan surgir, como la generación de desinformación, el debilitamiento de derechos fundamentales o la facilitación de actividades ilícitas avanzadas (desarrollo de armas biológicas, pérdida de control sobre los sistemas, etc.). Para ello, se sugieren procesos de evaluación y mitigación adaptados al impacto potencial de cada modelo.
Impacto y reacciones del sector tecnológico
El proceso de elaboración de este Código ético estuvo marcado por la presión y el debate entre legisladores, empresas tecnológicas y sociedad civil. Desde los borradores iniciales hasta el texto definitivo, diversos actores han advertido sobre el equilibrio necesario entre promover la innovación y garantizar la protección de los derechos y la seguridad. Algunos funcionarios europeos enfatizan la necesidad de una regulación estricta para convertir la IA en un activo seguro y transparente, mientras que representantes de la industria han criticado la posible carga administrativa y los riesgos de frenar el progreso frente a Estados Unidos y China.
Empresas tecnológicas como Meta han anunciado que, por el momento, no adherirán al Código, mientras que otras como Google, OpenAI o Microsoft mantienen una postura expectante y evalúan su posible incorporación. Organizaciones sectoriales resaltan que las nuevas obligaciones suponen retos adicionales para los proveedores que operan a nivel internacional.
La entrada en vigor de la Ley de Inteligencia Artificial comenzará en agosto de 2025, aunque las sanciones por incumplimiento no se impondrán hasta 2026, proporcionando un plazo para que las empresas puedan adaptarse y revisar sus compromisos.
Ventajas de adherirse y próximos desarrollos
Las compañías que firmen voluntariamente este Código dispondrán de una ruta clara para demostrar su cumplimiento con la Ley de IA de la UE, obteniendo beneficios como una reducción en los trámites burocráticos y mayor seguridad jurídica frente a posibles litigios. El cumplimiento voluntario será considerado un acto de buena fe, por lo que no se aplicarán penalizaciones inmediatas a quienes estén en proceso de adaptación, siempre que muestren esfuerzo y voluntad de cumplimiento.
La Comisión Europea tiene previsto publicar directrices adicionales que clarificarán el alcance y los requisitos para los modelos de finalidad general, facilitando la interpretación del marco normativo antes de la entrada en vigor de obligaciones más estrictas. Además, el Código podrá ser revisado y ajustado en función de la experiencia y las aportaciones de los Estados miembros y las partes interesadas.
La vicepresidenta de la Comisión Europea de Soberanía Tecnológica ha llamado a la industria a impulsar la adopción del Código, destacando la importancia de un esfuerzo conjunto para garantizar un desarrollo responsable. Expertos independientes y organizaciones civiles coinciden en que, aunque la iniciativa protege derechos fundamentales y promueve la transparencia, aún hay aspectos por reforzar, como el tratamiento de la desinformación y los discursos de odio.
Europa enfrenta ahora el reto de compatibilizar la protección social con la competitividad económica. Mientras las grandes plataformas evalúan sus próximos pasos, la Comisión y los Estados miembros continúan analizando el texto para posibles ajustes hasta el verano de 2025. El éxito del marco europeo dependerá de una supervisión efectiva y de un diálogo constante entre las autoridades, la industria y la sociedad.