Nueva normativa europea sobre la publicidad hecha con IA

Última actualización: marzo 24, 2026
  • La UE regula la IA con el AI Act, clasificando sistemas por niveles de riesgo y fijando obligaciones más estrictas cuanto mayor es el impacto en derechos y seguridad.
  • La publicidad hecha con IA debe cumplir requisitos de transparencia, etiquetado de contenido sintético y respeto a los derechos de autor y a la protección de datos.
  • El calendario de aplicación escalonado exige adaptarse ya: se prohíben usos de riesgo inaceptable y se generalizará el doble etiquetado de contenidos generados por IA.
  • Las marcas que integren la IA con ética, supervisión humana y políticas claras de uso convertirán la transparencia en una ventaja competitiva frente a sus rivales.

Nueva normativa europea sobre publicidad hecha con IA

La publicidad creada con inteligencia artificial ha pasado en muy poco tiempo de ser algo casi experimental a convertirse en el pan de cada día en marketing digital, medios, redes sociales y comercio electrónico. Textos, imágenes, vídeos, audios, recomendaciones “personalizadas”… la IA está metida en casi cualquier pieza de contenido que consumimos sin que muchas veces nos demos ni cuenta.

Ante este panorama, la Unión Europea ha decidido poner orden y fijar reglas claras para el uso de IA en publicidad y contenidos, con el objetivo de proteger a las personas, evitar abusos y garantizar que las marcas juegan limpio. No se trata de frenar la innovación, sino de marcar líneas rojas: qué se puede hacer, qué no, qué hay que etiquetar, cómo debe informarse al usuario y qué pasa si una empresa se salta la normativa.

Por qué la UE ha decidido regular la publicidad hecha con IA

La UE lleva años viendo cómo la inteligencia artificial gana peso en sectores clave: salud, transporte, energía, fabricación, finanzas y, por supuesto, comunicación y marketing. La promesa es enorme: diagnósticos médicos más precisos, coches más seguros, consumo energético más eficiente… y campañas publicitarias mucho más segmentadas y efectivas.

Pero junto a los beneficios, han aparecido riesgos muy serios: manipulación emocional a gran escala, desinformación, discriminación algorítmica, invasión de la privacidad o pérdida total de confianza en lo que vemos en pantalla. Para evitar que el mercado se convierta en una especie de “salvaje oeste digital”, las instituciones europeas han decidido regular el desarrollo y uso de la IA con una norma específica.

De ahí nace el llamado Reglamento Europeo de Inteligencia Artificial (conocido como AI Act o RIA), la primera gran ley del mundo centrada íntegramente en la IA. Esta norma no solo afecta a sistemas que controlan infraestructuras críticas o sanidad; también impacta de lleno en cómo las marcas usan la IA para hacer publicidad, segmentar audiencias y crear contenido sintético.

El Parlamento Europeo ha puesto el foco en que los sistemas de IA sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. Además, insiste en que las decisiones relevantes no pueden dejarse totalmente en manos de algoritmos: siempre debe existir supervisión humana para evitar impactos perjudiciales en derechos fundamentales.

Para que no haya grietas legales, los legisladores han apostado por una definición amplia y tecnológicamente neutra de IA, capaz de abarcar tanto los sistemas actuales como los que se desarrollen en los próximos años, sin cerrarse a una tecnología concreta.

El corazón del AI Act: un sistema de riesgos por niveles

Regulación de IA y publicidad en Europa

La gran novedad del AI Act es que no regula la inteligencia artificial como un bloque homogéneo, sino que clasifica los sistemas en función del riesgo que pueden suponer para las personas. Cuanto mayor es ese riesgo, más obligaciones tienen quienes desarrollan y utilizan la tecnología.

En términos generales, la norma distingue entre riesgo inaceptable, riesgo alto, riesgo limitado y riesgo mínimo. Buena parte de los sistemas de IA generativa utilizados para crear anuncios y contenidos publicitarios se encuadran en los niveles de riesgo mínimo o limitado, pero eso no significa carta blanca: tienen obligaciones claras en transparencia y derechos de autor.

Usos de IA prohibidos: riesgo inaceptable

Hay determinados usos de la IA que la UE considera tan peligrosos que directamente los prohíbe. En este nivel de riesgo inaceptable se encuentran, entre otros:

  • Sistemas que manipulan el comportamiento de personas vulnerables, como juguetes activados por voz que empujan a los niños a asumir conductas peligrosas o a tomar decisiones que no comprenden.
  • Modelos de puntuación social, es decir, sistemas que clasifican a las personas según su comportamiento, nivel económico o características personales, y usan esa puntuación para conceder o denegar ventajas.
  • Identificación biométrica remota en tiempo real en espacios públicos, como el reconocimiento facial masivo, usadas de forma generalizada salvo contadas excepciones legales.
Te puede interesar:  Meta apuesta por la energía nuclear para sostener la revolución de la IA

En el terreno publicitario, este enfoque se traduce en que las empresas no pueden utilizar sistemas que supongan manipulación cognitiva extrema o explotación de vulnerabilidades de consumidores concretos, especialmente menores o colectivos frágiles. Si una campaña se basara en ese tipo de prácticas, entraría en terreno prohibido.

El reglamento permite, con muchas cautelas, la identificación biométrica a posteriori para perseguir delitos graves, pero solo con control judicial estricto y nunca como herramienta rutinaria ligada a campañas comerciales o segmentación publicitaria.

Sistemas de alto riesgo: mucha supervisión y muchas reglas

Por debajo del nivel de prohibición se sitúan los sistemas de IA de alto riesgo, que no se vetan, pero sí están sometidos a un régimen muy exigente de cumplimiento y control continuo. La lógica es sencilla: cuanto más impacto potencial en seguridad o derechos fundamentales, más deberes legales para empresas y entidades públicas.

Se consideran de alto riesgo, por ejemplo, los sistemas de IA integrados en productos sujetos a normas europeas de seguridad (como aviación, automoción, juguetes o productos sanitarios) y un conjunto de actividades especialmente sensibles, entre ellas:

  • Identificación biométrica y categorización de personas físicas.
  • Gestión de infraestructuras críticas (energía, transporte, agua, etc.).
  • Educación y formación profesional, donde la IA puede influir en el acceso a oportunidades.
  • Empleo y gestión de trabajadores, incluido el acceso al autoempleo.
  • Acceso a servicios esenciales privados y públicos, como banca, seguros o ayudas públicas.
  • Aplicación de la ley y gestión migratoria, asilo y control de fronteras.
  • Asistencia en la interpretación jurídica y la toma de decisiones legales.

Todos estos sistemas deben cumplir con una larga lista de requisitos técnicos y organizativos: evaluaciones previas al lanzamiento, seguimiento a lo largo de su ciclo de vida, documentación técnica detallada, mecanismos de calidad de datos y canales para que las personas afectadas puedan presentar reclamaciones ante las autoridades nacionales.

En publicidad, un sistema puede acercarse a la categoría de alto riesgo si se utiliza para clasificar a las personas de forma intensiva y automatizada para conceder o denegarles acceso a servicios esenciales, o si influye en decisiones que afectan derechos fundamentales (por ejemplo, créditos o seguros ofrecidos a través de campañas hipersegmentadas basadas en IA).

IA generativa, derechos de autor y nuevas obligaciones de transparencia

La parte que más de cerca toca a la publicidad y al marketing es la que se refiere a los modelos de IA generativa y de propósito general, como ChatGPT, Gemini u otros sistemas capaces de producir textos, imágenes, música o vídeo a gran escala.

Aunque la ley no los clasifica automáticamente como de alto riesgo, sí les impone obligaciones específicas de transparencia, especialmente cuando se usan para generar contenidos que el público puede confundir con piezas humanas tradicionales o informaciones periodísticas.

Entre esas obligaciones destacan tres pilares básicos que afectan de lleno a agencias, marcas y plataformas:

  • Revelar que el contenido ha sido generado o modificado por IA. No vale usar un sistema generativo y hacer como si nada: debe advertirse de forma clara al usuario cuando una pieza es sintética o está fuertemente asistida por IA.
  • Diseñar los modelos para minimizar la generación de contenidos ilegales, como discursos de odio, mensajes discriminatorios o material que vulnere derechos fundamentales.
  • Publicar resúmenes de los datos protegidos por derechos de autor usados para entrenar los modelos, de manera que los titulares de esos derechos puedan entender, al menos de forma general, cómo se ha entrenado el sistema.

Además, los modelos de propósito general considerados de alto impacto o con riesgo sistémico (por su potencia computacional y alcance global) deben someterse a evaluaciones exhaustivas y comunicar a la Comisión Europea los incidentes graves que detecten.

Una obligación clave para la publicidad es el etiquetado de contenidos generados o retocados con IA, incluidos deepfakes: imágenes, audios o vídeos que recrean a personas reales diciendo o haciendo cosas que nunca ocurrieron. En estos casos, la marca o plataforma debe informar de forma visible de que se trata de contenido sintético.

Etiquetado obligatorio de contenido sintético: el nuevo estándar europeo

Las nuevas reglas europeas dan un paso más allá y establecen un sistema de doble etiquetado para los contenidos creados con IA, que será especialmente relevante a partir de 2026 para cualquier empresa que use estas tecnologías de forma intensiva en publicidad o comunicación.

Por un lado, se exigirá un marcado legible por máquina (metadatos, estándares técnicos como C2PA, firmas criptográficas, etc.) para que plataformas y herramientas puedan detectar que un contenido es sintético o ha sido manipulado. Por otro, habrá que incluir señales visibles para las personas en determinados contextos, en especial cuando se trate de piezas informativas de interés público o deepfakes con potencial para engañar a la audiencia.

Te puede interesar:  Palo Alto Networks integra Protect AI y refuerza la seguridad en inteligencia artificial

Los expertos subrayan que la clave no está en medir milimétricamente el porcentaje de participación de la IA en la creación, sino en valorar cuán sustancial es la intervención de la tecnología. Si la contribución de la IA puede inducir a error sobre el origen o autenticidad del contenido, debe etiquetarse.

En piezas informativas donde haya existido revisión humana con responsabilidad editorial, el aviso podría no ser obligatorio, pero eso no libera a los medios ni a las marcas de cuidar la calidad y evitar la difusión de contenido falso o sesgado generado por IA sin control.

Muchas empresas están empezando a cometer errores típicos: avisos tan discretos que casi nadie ve, marcas de agua que se pueden recortar fácilmente, ausencia total de protocolos sobre cuándo y cómo avisar… Todo ello, además de restar transparencia, aumenta el riesgo legal y reputacional.

Otras normas que afectan a la publicidad con IA: DSA y GDPR

La regulación de la AI Act no vive aislada. Se complementa con otras leyes europeas que también influyen en la publicidad generada o gestionada con IA, especialmente la Ley de Servicios Digitales (DSA) y el Reglamento General de Protección de Datos (GDPR).

La DSA funciona como el nuevo marco para los grandes servicios online en Europa y obliga a que los contenidos automatizados, incluidos los anuncios, estén claramente identificados como tales. Si un chatbot, un sistema de recomendaciones o un feed personalizado está mostrando publicidad basada en IA, el usuario debe saber que está ante un mensaje comercial y no ante un simple consejo neutral.

Ejemplos típicos: un asistente virtual en un ecommerce de cosmética que, bajo la excusa de recomendar productos “según tu estado de ánimo”, empuja sistemáticamente a compras de alto precio, o una herramienta de IA que sugiere inversiones financieras en función del momento emocional del usuario. Ese tipo de prácticas pueden considerarse publicidad dirigida basada en perfiles sensibles y deben etiquetarse y limitarse conforme a la normativa.

Por su parte, el GDPR sigue marcando qué se puede hacer con los datos de los usuarios. La IA no cambia la regla de fondo: sin una base jurídica adecuada (normalmente, un consentimiento informado y específico), no se pueden tratar datos personales para segmentar y personalizar anuncios. Y menos aún cuando se trata de datos sensibles o inferencias sobre el estado emocional o la salud.

La típica casilla de “acepto cookies” ya no sirve como carta blanca para alimentar modelos de IA que rastrean cada clic, cada pausa y cada gesto del usuario. Las empresas tienen que revisar sus mecanismos de consentimiento y anonimizar o seudonimizar los datos siempre que sea posible para reducir riesgos.

Calendario de aplicación: qué entra en vigor y cuándo

El Reglamento Europeo de Inteligencia Artificial fue adoptado oficialmente en junio de 2024 y se irá aplicando por fases en los años siguientes. Esto significa que las empresas de publicidad y comunicación tienen un margen limitado para adaptarse, pero no infinito.

Los hitos más relevantes del calendario son los siguientes:

  • Prohibición de sistemas de riesgo inaceptable: comenzó a aplicarse el 2 de febrero de 2025. Desde esa fecha, cualquier uso encuadrado en ese nivel está directamente vetado en la UE.
  • Códigos de buenas prácticas: entran en vigor a los nueve meses de la entrada en vigor general del reglamento, ofreciendo guías específicas a las empresas para cumplir con la ley.
  • Requisitos de transparencia para sistemas de IA de propósito general: se aplican a los 12 meses, obligando ya a modelos generativos a respetar reglas sobre derechos de autor, filtrado de contenidos ilegales y etiquetado de producción sintética.
  • Obligaciones para sistemas de alto riesgo: disponen de un plazo más amplio y empezarán a aplicarse a los 36 meses, dado que suelen implicar cambios técnicos profundos y auditorías complejas.

Además, a partir del 2 de agosto de 2026 se activan de forma explícita las obligaciones de etiquetado de contenidos creados por IA para textos, imágenes, audio y vídeo, con el citado sistema de doble marcado. A partir de ese momento, publicar contenido sintético sin avisar será una mala idea tanto legal como reputacionalmente.

El Parlamento Europeo ha impulsado un grupo de trabajo específico para supervisar la aplicación del AI Act, que trabajará de la mano con la Oficina de IA de la Comisión Europea. El mensaje político es claro: no se trata de aprobar una ley simbólica, sino de hacerla cumplir.

Te puede interesar:  Salesforce lanza Agentforce Sales en ChatGPT para llevar el CRM conversacional al día a día de las ventas

Qué riesgos afrontan las marcas que usan IA en su publicidad

Para las marcas y agencias, la gran pregunta es qué se juegan realmente si no se toman en serio esta nueva normativa europea sobre la publicidad hecha con IA. Y la respuesta combina al menos dos dimensiones: reputacional y legal.

En términos de reputación, los consumidores europeos están cada vez más informados y son más escépticos con lo que ven online. Saben que muchas cosas están creadas o editadas por IA y valoran que se les hable con honestidad. Estudios recientes apuntan a que una amplia mayoría de usuarios prefiere relacionarse con marcas que son transparentes cuando usan IA en sus contenidos.

Si una empresa oculta sistemáticamente que sus anuncios, artículos o vídeos son sintéticos y eso sale a la luz, la sensación de engaño puede provocar pérdida de confianza, crisis de reputación y boicots en redes sociales. En un entorno saturado, donde la confianza es oro, este tipo de errores se pagan caros.

En el plano legal, el riesgo es todavía más tangible. Se habla ya de posibles sanciones multimillonarias, que pueden llegar a decenas de millones de euros o a un porcentaje relevante de la facturación anual, especialmente en casos graves de manipulación informativa, campañas políticas opacas o uso no declarado de IA en campañas de influencia.

A esto se añaden otros focos de conflicto: infracción de derechos de autor por entrenar modelos con obras protegidas sin garantías, vulneraciones de privacidad por tratar datos sin base legal, o prácticas comerciales engañosas cuando la IA se usa para exagerar, ocultar o distorsionar la realidad de un producto o servicio.

Hacia un marketing más ético: transparencia, veracidad y propósito

Ante este nuevo escenario, la cuestión no es si conviene usar IA en publicidad, sino cómo integrarla de forma responsable. La tecnología puede multiplicar la creatividad y la eficiencia, pero necesita un marco ético que marque límites claros.

Las mejores prácticas que se están consolidando en Europa giran en torno a tres principios:

  1. Transparencia: informar de manera comprensible cuando el contenido ha sido generado o modificado de forma sustancial por IA. No hace falta ponerlo en letras gigantes en cada esquina, pero sí evitar que el usuario se lleve a engaño.
  2. Veracidad: no utilizar la IA para crear mensajes, imágenes o vídeos que distorsionen la realidad con intención de manipular. La creatividad está bien; la falsificación de hechos, no.
  3. Propósito: emplear la IA para mejorar la experiencia del usuario (personalización, accesibilidad, rapidez), y no como una herramienta para presionarle o aprovecharse de sus momentos de vulnerabilidad.

Las marcas que entiendan esta lógica y apuesten por un uso honesto y responsable de la IA pueden convertir la ética en una ventaja competitiva. En un mar de contenidos sintéticos, la transparencia será cada vez más valorada y los algoritmos de las grandes plataformas empiezan ya a favorecer el contenido autenticado y verificable.

Para adaptarse, las empresas deberían empezar por revisar su estrategia de comunicación, identificar qué piezas dependen de IA y definir políticas internas de etiquetado y supervisión humana. No se trata de demonizar la tecnología, sino de integrarla sin perder el toque humano ni comprometer la confianza del público.

Formar a los equipos de marketing, contenidos y legal es igualmente clave. No basta con saber usar herramientas como generadores de texto o imagen; hace falta entender sus límites, sesgos y riesgos. Muchas compañías están recurriendo a asesoría externa especializada para diseñar protocolos de cumplimiento y modelos de gobernanza de la IA.

En última instancia, el nuevo marco europeo busca algo bastante sensato: que la inteligencia artificial esté al servicio de las personas y no al revés. Las marcas que asuman ese enfoque, combinando tecnología, ética y transparencia, serán las que consigan mantener la atención y la credibilidad en un entorno donde casi cualquier cosa puede ser generada por una máquina.

Este nuevo escenario convierte la honestidad sobre el uso de IA en publicidad en un factor decisivo a medio plazo: quienes apuesten por contenido claro, etiquetado cuando toca y supervisado por humanos construirán relaciones más sólidas con su audiencia, mientras que quienes sigan escondiendo el papel de la IA se arriesgan a que lo que hoy parece una ventaja táctica se convierta mañana en un serio problema legal y de reputación.