- Adam Mosseri, director de Instagram, rechaza hablar de “adicción clínica” y la sustituye por el concepto de “uso problemático”.
- El juicio civil en Los Ángeles analiza si Meta y Google diseñaron Instagram y YouTube para enganchar deliberadamente a niños y adolescentes.
- El caso de la joven Kaley G.M. actúa como referencia para más de un millar de demandas similares en EE.UU.
- La acusación pone el foco en algoritmos, desplazamiento infinito y filtros de belleza, mientras la defensa insiste en que la prioridad es la seguridad de los menores.

El máximo responsable de Instagram, Adam Mosseri, se ha situado en el centro del debate mundial sobre el impacto de las redes sociales en la salud mental de los jóvenes tras declarar en un juicio civil en Los Ángeles. Durante su intervención, el directivo negó que pueda hablarse de “adicción clínica” a plataformas como Instagram o YouTube, aunque admitió que existe lo que denomina un “uso problemático” de estos servicios digitales.
El proceso judicial, seguido con atención desde Europa y España por su posible efecto regulatorio, pretende aclarar si grandes tecnológicas como Meta y Google han diseñado sus productos con mecanismos específicamente pensados para retener a niños y adolescentes el máximo tiempo posible, con el consiguiente impacto en su bienestar psicológico.
Un juicio histórico contra Meta y Google por el diseño de sus plataformas
El caso se examina ante un jurado civil en Los Ángeles (California) y tiene como acusadas a Meta, matriz de Instagram y Facebook, y a YouTube, propiedad de Google. La cuestión clave es si las compañías construyeron deliberadamente plataformas adictivas para los menores, convirtiendo funciones como el desplazamiento infinito, las notificaciones o las recomendaciones automáticas en auténticos “ganchos” para aumentar el tiempo de uso.
La demanda se articula en torno a la experiencia de Kaley G.M., una joven californiana de 20 años que empezó a utilizar YouTube a los seis años y se abrió una cuenta en Instagram en torno a los 9-11 años, por debajo de la edad mínima oficial de 13. Según sostiene, ese contacto intensivo y temprano con varias redes —incluidas después Snapchat y TikTok— contribuyó a daños psicológicos graves, con síntomas de ansiedad, depresión y fuerte dependencia de la interacción digital.
Este procedimiento se considera una prueba piloto para más de un millar de litigios relacionados con los efectos de las redes sociales sobre jóvenes usuarios en Estados Unidos. El resultado podría guiar futuras acciones colectivas y, de forma indirecta, influir en el debate regulatorio que ya está en marcha en la Unión Europea con normas como la Ley de Servicios Digitales, como han puesto de manifiesto casos previos contra Meta.
Frente al jurado, los abogados demandantes describen Instagram y YouTube como “trampas” cuidadosamente diseñadas para explotar la vulnerabilidad emocional de los adolescentes. La defensa de Meta y Google, por su parte, niega que exista una intención de generar adicción y defiende que se trata de plataformas de comunicación y entretenimiento comparables, en parte, a servicios de vídeo bajo demanda como Netflix.
“Adicción clínica” frente a “uso problemático”: el matiz que defiende Mosseri
Durante el interrogatorio, Adam Mosseri insistió en que es esencial diferenciar entre una patología reconocida clínicamente y el comportamiento de una persona que pasa demasiado tiempo en una aplicación. A su juicio, el término “adicción clínica” no es apropiado para describir lo que ocurre con la mayoría de usuarios en redes sociales, aunque admite que sí puede haber un uso que cause malestar y consecuencias negativas.
El abogado de la acusación, Mark Lanier, le preguntó directamente si consideraba que Instagram podía volver “clínicamente adictos” a sus usuarios. Mosseri respondió que no: explicó que en alguna ocasión había dicho que estaba “enganchado” a una serie de Netflix que vio hasta altas horas de la noche, pero que eso no equivale a una adicción en sentido médico. Reconoció además que, en el pasado, había empleado la palabra “adicto” de forma “demasiado frívola”.
Lanier le recordó que no es médico ni psicólogo y cuestionó su autoridad para pronunciarse sobre diagnósticos clínicos. Mosseri replicó que nunca ha pretendido diagnosticar una adicción y que su argumento se limita a remarcar que, desde el punto de vista científico, hablar de “uso problemático” sería más riguroso que hablar de trastorno adictivo reconocido.
Ese matiz semántico tiene implicaciones de fondo: si el jurado acepta la idea de que se trata “solo” de un uso excesivo, las obligaciones y la responsabilidad legal de las plataformas podrían verse matizadas. Si, por el contrario, considera probado que el diseño del producto genera algo equiparable a una dependencia clínica, el escenario para las redes sociales sería mucho más complicado tanto en Estados Unidos como en otras regiones, incluida Europa.
La acusación: algoritmos, desplazamiento infinito y filtros de belleza
Más allá del debate sobre la terminología médica, la demanda se centra en el diseño técnico de las plataformas. El equipo de Kaley sostiene que funciones como el desplazamiento infinito, la reproducción automática de vídeos, el botón de “me gusta” y los sistemas de recomendación personalizan el contenido de tal manera que fomentan una consulta compulsiva del móvil, especialmente entre adolescentes en busca de validación social.
Según la acusación, estos mecanismos actúan como “dispensadores de dopamina” al ofrecer recompensas inmediatas —nuevos vídeos, notificaciones, reacciones— cada vez que el usuario interactúa con la aplicación. En jóvenes en pleno desarrollo, añaden, este tipo de estímulos puede facilitar conductas repetitivas difíciles de controlar y agravar problemas preexistentes de autoestima y salud mental.
Un capítulo relevante del juicio gira en torno a los filtros de belleza y edición facial de Instagram. Documentos internos de Meta, citados por la acusación, muestran debates dentro de la empresa sobre si prohibir aquellos efectos que alteran de forma drástica el aspecto del rostro o que simulan resultados de cirugía estética. En algunos correos, expertos consultados por la compañía advertían de forma casi unánime del potencial daño de estos filtros en chicas jóvenes.
En un primer momento, Instagram optó por vetar globalmente los efectos que distorsionaban la cara. Sin embargo, más adelante se revisó la política y se permitió un grupo de filtros que modifican rasgos físicos, mientras que se mantuvo el bloqueo específico de los que promocionaban procedimientos estéticos. Mosseri explicó ante el jurado que ese cambio buscaba centrarse en los contenidos considerados “más problemáticos”, aunque los abogados de Kaley sugieren que también hubo presiones comerciales, incluyendo el temor a perder competitividad en determinados mercados internacionales.
La defensa de Meta e Instagram: seguridad de menores y efectos a largo plazo
Desde el lado de Meta, la respuesta se apoya en dos grandes ideas: por un lado, que Instagram no está concebido para causar daño; por otro, que la compañía ha ido incorporando en los últimos años un amplio catálogo de herramientas de protección para adolescentes. Mosseri, al frente de Instagram desde 2018, aseguró que la empresa tiene interés en que los menores estén seguros no solo por responsabilidad social, sino también porque protegerles es positivo para el negocio a largo plazo.
El directivo subrayó que las decisiones de priorizar el beneficio por encima del bienestar del usuario pueden ser “muy problemáticas” para la empresa con el paso del tiempo. También reiteró la idea, ya manifestada en comparecencias ante el Senado estadounidense, de que está a favor de una mayor regulación de la seguridad en línea, sin dejar de insistir en que trabajan para que la plataforma resulte lo más segura posible incluso cuando las familias no utilizan las herramientas de control parental disponibles.
Entre las medidas introducidas en los últimos años, Mosseri citó las llamadas “cuentas para adolescentes”, que activan de forma automática restricciones de contenido y opciones de privacidad más estrictas para usuarios jóvenes. Se han reforzado además los sistemas para limitar la exposición a determinados temas sensibles y se ha comenzado a implementar verificación de edad mediante inteligencia artificial con el objetivo de detectar a menores que se registran con fechas de nacimiento falsas, aunque la propia empresa admite que su precisión es limitada.
En este contexto, Meta insiste en que las dificultades de salud mental de la demandante no pueden atribuirse únicamente a Instagram. La defensa ha presentado declaraciones de profesionales que trabajaron con Kaley, así como información sobre problemas familiares previos, con el fin de demostrar que hubo otros factores determinantes en su evolución psicológica y que la red social no fue el “factor sustancial” que alega la acusación.
Salud mental, menores y responsabilidad: un debate que apunta también a Europa
La causa de Kaley se enmarca en una oleada de demandas contra redes sociales en Estados Unidos, presentadas por familias que aseguran haber visto cómo sus hijos desarrollaban trastornos alimentarios, depresión severa, conductas autolesivas e incluso intentos de suicidio tras un uso intensivo de estas plataformas. Algunos progenitores se han concentrado a las puertas del juzgado, desde la madrugada y bajo la lluvia, para seguir de cerca cada sesión del juicio.
La atención al caso va más allá del ámbito estadounidense. En España y el resto de la UE, el debate sobre la responsabilidad de las grandes tecnológicas en la protección de menores está plenamente abierto. La Ley de Servicios Digitales europea ya obliga a plataformas de gran tamaño a evaluar y mitigar riesgos sistémicos, entre ellos los relacionados con la salud mental de niños y adolescentes, y exige mayor transparencia sobre los algoritmos que determinan qué ve cada usuario.
Organizaciones de padres, asociaciones de consumidores y expertos en salud mental europeos observan este juicio como un posible punto de inflexión. Un veredicto que considere probada una estrategia deliberada para fomentar conductas adictivas podría reforzar los argumentos a favor de restricciones más severas en materia de diseño de interfaz, notificaciones o personalización algorítmica en redes sociales utilizadas masivamente por menores.
Al mismo tiempo, la defensa de Meta y Google se apoya en la existencia de marcos legales —como la conocida Sección 230 en Estados Unidos— que limitan la responsabilidad directa de las plataformas por los contenidos que publican sus usuarios. Aunque esta protección no cubre el diseño del producto, sí restringe el alcance de los argumentos centrados exclusivamente en el material al que estuvo expuesta Kaley, motivo por el cual la jueza ha pedido que no se profundice en los detalles del contenido concreto visto por la demandante.
Lo que está en juego para el futuro de las redes sociales
El juicio está previsto que se prolongue varias semanas, con fechas señaladas como la comparecencia del fundador de Meta, Mark Zuckerberg, y del director ejecutivo de YouTube, Neil Mohan, que deberán responder a cuestiones sobre cómo se toman las decisiones de producto y qué peso tienen el crecimiento y los ingresos publicitarios frente a las posibles consecuencias para los menores.
Mientras tanto, empresas como TikTok y Snapchat, que también habían sido señaladas en procesos similares, han optado por acuerdos confidenciales previos al juicio. Este movimiento refuerza la idea de que la industria es consciente del que entraña el creciente escrutinio sobre la adicción a las pantallas y el diseño de sus servicios.
Para el sector tecnológico, el caso de Kaley funciona como un barómetro del grado de tolerancia social y jurídica hacia modelos de negocio basados en captar y retener la atención. De cara a mercados como el europeo, donde la normativa es cada vez más exigente con el uso de datos y la protección de menores, un fallo contundente contra Meta y Google podría acelerar iniciativas legislativas orientadas a limitar las técnicas de diseño persuasivo y a exigir evaluaciones de impacto en salud mental.
En última instancia, la declaración de Mosseri, negando que exista una “adicción clínica” pero aceptando que hay un uso problemático que puede dañar a algunos jóvenes, resume la tensión que atraviesa a toda la industria: las redes sociales se han convertido en una pieza central de la vida cotidiana, especialmente entre adolescentes, y el reto ahora es determinar hasta qué punto los responsables de su diseño deben responder legalmente cuando esa experiencia digital se vuelve insana o incontrolable para quienes más frágiles son.

