- OpenAI ha desactivado las sugerencias de aplicaciones en ChatGPT tras quejas por aparentar publicidad encubierta.
- La compañía insiste en que no existían acuerdos comerciales ni pruebas de anuncios activos en la plataforma.
- Directivos como Mark Chen y Nick Turley reconocen errores de diseño y prometen más controles y transparencia para el usuario.
- La prioridad actual de OpenAI pasa por mejorar la calidad de ChatGPT y frenar, por ahora, cualquier proyecto publicitario.

La reciente decisión de OpenAI de desactivar las sugerencias de aplicaciones integradas en ChatGPT ha encendido el debate sobre dónde termina la recomendación de herramientas y dónde empieza la publicidad encubierta en los asistentes de inteligencia artificial. Lo que la compañía presentaba como una forma de facilitar el acceso a apps construidas sobre su plataforma ha sido percibido por una parte de los usuarios como el primer paso hacia un modelo basado en anuncios dentro del chat.
Durante varios días, suscriptores de pago y usuarios avanzados de ChatGPT compartieron en redes sociales capturas de pantalla con recomendaciones de servicios como Peloton, Target o herramientas de edición de vídeo, en un formato muy similar al de un mensaje promocional. Aunque técnicamente se trataba de un experimento de descubrimiento de aplicaciones, el diseño elegido ha resultado tan parecido a un anuncio clásico que muchos interpretaron que OpenAI había empezado a monetizar el producto sin avisar.
Qué eran realmente las sugerencias de aplicaciones en ChatGPT

Según la versión oficial de la compañía, las sugerencias formaban parte de una prueba para mostrar aplicaciones creadas en la plataforma de ChatGPT, lanzada meses atrás con el objetivo de ampliar las funciones del asistente mediante herramientas de terceros. Cuando un usuario pedía ayuda para una tarea concreta, el sistema podía recomendarle una app compatible que, en teoría, encajase con lo que necesitaba en ese momento.
Estas recomendaciones se presentaban como módulos destacados con enlaces directos a dichas aplicaciones, integrados en el propio flujo de la conversación. En la práctica, el resultado recordaba demasiado al típico bloque de anuncios de un buscador, lo que disparó las sospechas. Aunque no aparecían etiquetas claras del tipo «contenido patrocinado» o «publicidad», el formato y el tipo de marcas sugeridas alimentaron la idea de que OpenAI estaba probando ya su futura línea de negocio publicitaria.
La empresa insiste en que no existía ningún componente financiero ni acuerdos con las compañías mencionadas. Ni Peloton, ni Target ni otras marcas habrían pagado por aparecer en estas recomendaciones. OpenAI sostiene que el sistema se limitaba a mostrar apps registradas en su ecosistema, sin contraprestación económica, como una forma de que los usuarios descubrieran nuevas funciones y extensiones dentro de ChatGPT.
Pese a ello, la percepción de muchos usuarios fue muy distinta. En foros especializados y redes sociales se multiplicaron los comentarios de suscriptores que se sentían utilizados como banco de pruebas de un modelo publicitario encubierto. Algunos reproches eran especialmente duros, reprochando a la compañía que experimentara con formatos que parecían anuncios en cuentas por las que se paga una cuota mensual.
Quejas de los usuarios y malestar entre los suscriptores de pago
El malestar se hizo especialmente visible entre usuarios de los planes de pago, incluidos perfiles profesionales y empresas, que no esperaban ver nada que se pareciera mínimamente a anuncios dentro de una herramienta por la que ya abonaban una tarifa. Entre los ejemplos que circularon aparecían sugerencias de servicios de fitness, tiendas minoristas y utilidades ajenas al contexto de la consulta original.
Varios suscriptores se quejaron de que las recomendaciones eran poco relevantes o directamente incongruentes con sus intereses y con el tema de la conversación. Más allá de la cuestión económica, la sensación general era que ChatGPT perdía parte de su neutralidad al introducir elementos que parecían empujar hacia ciertas marcas y servicios, incluso cuando no existía un vínculo comercial real.
En este contexto surgieron testimonios de usuarios que decían sentirse engañados, con mensajes tan contundentes como «no insultéis a vuestros usuarios de pago», en respuesta a aclaraciones públicas de responsables de OpenAI. La crítica no se limitaba al posible trasfondo publicitario, sino también a la falta de controles claros para desactivar estas sugerencias desde la configuración de la cuenta.
Otro de los puntos conflictivos fue la ausencia de un interruptor sencillo para apagar por completo este tipo de recomendaciones. Mientras algunos usuarios estarían dispuestos a recibir sugerencias de herramientas útiles, otros reclamaban poder decidir si querían verlas o no, especialmente en entornos de trabajo o uso profesional donde cualquier distracción comercial es mal recibida.
La respuesta de OpenAI: sin anuncios activos y marcha atrás inmediata
La reacción oficial llegó a través de varios directivos de la compañía. El director de investigación, Mark Chen, reconoció públicamente que OpenAI se había «quedado corta» en la forma de implementar estos mensajes y admitió que cualquier elemento que pueda interpretarse como anuncio «debe manejarse con cuidado». En un tono abiertamente autocrítico, explicó que la experiencia no había estado a la altura de las expectativas.
Chen detalló que, ante el ruido generado, OpenAI decidió desactivar por completo este tipo de sugerencias mientras trabaja en mejorar la precisión del modelo y en pulir la forma en la que se presentan. Además, confirmó que la empresa está estudiando incorporar controles más granulares para que cada usuario pueda reducir, limitar o desactivar estas recomendaciones cuando se reintroduzcan en el futuro, si es que eso llega a ocurrir.
En paralelo, el responsable de ChatGPT, Nick Turley, salió al paso de los rumores que hablaban de pruebas de anuncios en vivo dentro del asistente. En mensajes publicados en redes sociales, insistió en que no hay campañas publicitarias activas y que muchas de las capturas de pantalla que se estaban compartiendo o bien no eran reales o no se correspondían con anuncios.
Turley subrayó que, si en algún momento OpenAI decide apostar por un modelo basado en publicidad, la compañía adoptará un enfoque «reflexivo» y priorizará la confianza del usuario. Según sus palabras, cualquier iniciativa de este tipo se diseñaría desde el principio para ser transparente, claramente identificable y respetuosa con quienes utilizan ChatGPT tanto en su vida personal como en entornos profesionales.
Confusión entre descubrimiento de apps y publicidad encubierta
Más allá de la desactivación inmediata de la función, este episodio pone de relieve una cuestión de fondo: la delgada línea que separa el descubrimiento de herramientas de la publicidad cuando hablamos de asistentes de IA. En una interfaz conversacional, donde el usuario confía en que cada respuesta está guiada por criterios de utilidad, cualquier módulo que destaque una marca concreta corre el riesgo de interpretarse como un anuncio, aunque no lo sea.
Expertos en experiencia de usuario y regulación tecnológica en Europa llevan tiempo advirtiendo de que la transparencia es clave en este tipo de productos. El Reglamento de Servicios Digitales (DSA) y el futuro marco regulatorio de la inteligencia artificial en la Unión Europea avanzan precisamente en esa dirección: etiquetar de manera clara qué contenidos son orgánicos, cuáles responden a intereses comerciales y qué elementos se generan de forma automatizada.
En el caso concreto de ChatGPT, la polémica ha servido como recordatorio de que la percepción del usuario pesa tanto como la realidad técnica del sistema. Aunque OpenAI defienda que no había anuncios, si las recomendaciones se muestran con el mismo aspecto que un bloque publicitario clásico, una parte de la audiencia asumirá que está recibiendo publicidad, y ahí es donde empiezan los problemas de confianza.
Para compañías europeas que trabajan con IA generativa, desde startups hasta grandes corporaciones, este incidente funciona como aviso de lo que puede ocurrir si se mezclan funciones de recomendación y posibles intereses comerciales sin una comunicación impecable. Lo que se pretendía como una ayuda para descubrir nuevas apps puede transformarse, a ojos del usuario, en un giro brusco hacia la monetización invasiva.
Impacto en la estrategia de negocio y en la futura publicidad de OpenAI
La controversia llega en un momento en el que OpenAI explora vías para rentabilizar su tecnología más allá de las suscripciones, incluidas posibles fórmulas publicitarias y acuerdos con terceros. La incorporación de perfiles como Fidji Simo, exdirectiva de compañías como Instacart y Facebook, al área de Aplicaciones alimentó las especulaciones sobre un futuro negocio de anuncios en torno a ChatGPT.
Sin embargo, los últimos movimientos apuntan a un giro de prioridades. Según informaciones citadas por medios estadounidenses, Sam Altman habría declarado una especie de «alerta roja» interna, instando a centrar todos los esfuerzos en mejorar la calidad de ChatGPT y posponer proyectos accesorios, entre ellos el desarrollo de productos publicitarios.
Este cambio de ritmo se explica, en parte, por la sensibilidad especial que generan la publicidad y el uso de datos en el contexto europeo, donde la normativa de protección de datos (GDPR) y las reglas sobre transparencia en contenidos patrocinados son especialmente estrictas. Cualquier paso en falso podría no solo dañar la imagen de la compañía, sino también atraer la atención de los reguladores.
Para mercados como España, donde ChatGPT se utiliza de forma creciente en empresas, administración y educación, la idea de un asistente salpicado de mensajes que parezcan anuncios genera ciertas reticencias. Clientes corporativos y organizaciones públicas priorizan entornos previsibles, sin elementos que puedan interpretarse como sesgos comerciales no declarados en las respuestas del modelo.
Lecciones para el ecosistema de IA en Europa y España
Lo ocurrido con OpenAI también lanza un mensaje claro al resto de actores que desarrollan asistentes de IA, tanto en Europa como en el ámbito hispanohablante. El diseño de la experiencia de usuario no es un simple detalle estético: puede marcar la diferencia entre una función percibida como útil y otra vista como publicidad engañosa.
Startups y scaleups tecnológicas que trabajan con modelos de lenguaje, ya sean propias o basadas en APIs de terceros, tendrán que extremar las precauciones a la hora de introducir capas de monetización. La inclusión de recomendaciones de productos, enlaces afiliados o integraciones patrocinadas deberá ir acompañada de etiquetados claros, políticas de privacidad comprensibles y opciones visibles para desactivar estos elementos.
En un contexto en el que la Unión Europea impulsa una regulación específica para la inteligencia artificial, episodios como este ayudan a ilustrar los riesgos de mezclar recomendación algorítmica y negocio publicitario sin guardarraíles suficientes. Desde Bruselas se observa con lupa cualquier movimiento que pueda suponer un tratamiento opaco de los datos del usuario o un uso poco transparente de formatos comerciales integrados en servicios críticos.
Al mismo tiempo, los propios usuarios europeos, más acostumbrados a debatir sobre privacidad y protección de datos, tienden a reaccionar con rapidez cuando perciben que un servicio que utilizan a diario se acerca a modelos de publicidad invasiva. Esa presión social, sumada al marco regulatorio, está obligando a las grandes plataformas de IA a ir con pies de plomo cada vez que experimentan con nuevas fuentes de ingresos.
La retirada de las sugerencias de aplicaciones en ChatGPT deja varias lecciones sobre la mesa: la importancia de la transparencia, la necesidad de controles claros para el usuario y el peso de la confianza en productos basados en IA. Aunque OpenAI insiste en que no había anuncios ni acuerdos comerciales detrás de estas recomendaciones, la polémica demuestra que, hoy por hoy, cualquier elemento que se parezca mínimamente a publicidad dentro de un asistente conversacional genera sospechas. Cómo gestione la compañía sus próximos pasos será clave para mantener la credibilidad de ChatGPT en mercados tan exigentes como el español y el europeo.