Inteligencia artificial y salud mental adolescente: guía completa de riesgos, usos y buenas prácticas

Última actualización: noviembre 11, 2025
  • La IA generativa aporta apoyo accesible, pero genera riesgos únicos en bienestar, desarrollo, privacidad y sesgos.
  • La evidencia sugiere utilidad como complemento terapéutico con supervisión y diseño seguro por defecto.
  • Familias, profesionales y diseñadores deben aplicar moderación contextual, educación digital y cribados breves.

Salud mental adolescente e IA

En los últimos años, la inteligencia artificial se ha colado en el día a día de los jóvenes como quien no quiere la cosa, desde asistentes de estudio hasta chatbots que aparentan entenderlo todo; en medio de este boom, la salud mental adolescente es uno de los terrenos donde más se notan tanto los beneficios como los riesgos. Cada avance amplía las posibilidades, pero también abre preguntas incómodas: ¿qué pasa cuando una conversación con una IA sustituye a la charla con un amigo, con la familia o con un profesional?

Mientras las herramientas basadas en IA generativa se vuelven más humanas en su trato, la evidencia científica va llegando con cierto retraso; voces académicas y clínicas alertan de que podríamos repetir con la IA el error cometido con las redes sociales si no actuamos a tiempo, porque cuando se empiecen a medir de forma rigurosa sus efectos, los adolescentes ya la habrán integrado en su vida. Por eso conviene mirar sin sesgos lo que sabemos hoy: usos reales, beneficios contrastados, riesgos específicos, marcos éticos y medidas de protección que deben activarse ya.

Qué es la IA generativa y por qué importa en la adolescencia

La inteligencia artificial es el conjunto de métodos computacionales que resuelven tareas típicamente humanas y aprenden de datos, con reglas matemáticas sencillas combinadas a gran escala; su versión generativa crea contenidos nuevos (texto, imágenes, audio o vídeo) a partir de ejemplos y de instrucciones en lenguaje natural, los famosos prompts, lo que la convierte en una tecnología con enorme potencial educativo, creativo y social, pero también con riesgos psicoafectivos inéditos en población joven.

En el terreno conversacional conviven dos familias de sistemas: los chatbots de reglas (preguntas frecuentes, árboles de decisión) y los modelos generativos basados en LLM que elaboran respuestas contextuales en tiempo real; los primeros son rígidos y previsibles, los segundos fluyen, personalizan y, a veces, sobrerreaccionan o alucinan. Ejemplos de uso general como Copilot, ChatGPT o Gemini coexisten con plataformas de personajes virtuales tipo Character.AI, donde muchos adolescentes dicen encontrar compañía y diversión, un caldo de cultivo perfecto para la relación parasocial.

Este cambio de paradigma ha sido analizado también por la comunidad pediátrica: un trabajo firmado por M. A. Salmerón Ruiz, pediatra y presidente de la SEMA, publicado en la revista Adolescere, enfatiza que el profesional de atención a la infancia y adolescencia ocupa una posición privilegiada para educar, detectar de forma temprana y prevenir daños, para lo cual urge formación específica y preguntas clínicas sobre el uso de IA en las entrevistas con pacientes y familias.

Quién usa la IA, con qué frecuencia y para qué

Una encuesta en Estados Unidos realizada por el Centro Digital de la Escuela de Educación de Posgrado de Harvard en 2024, con 1.274 jóvenes de 14 a 22 años, encontró que la mitad declara haber utilizado herramientas generativas alguna vez, un 4 % dice usarlas a diario y el 41 % no las ha probado; lo interesante es que no se observaron diferencias significativas por raza o etnia, y sí un patrón claro: la mayoría sabe lo que es la IA generativa y se siente capaz de ponerla a funcionar.

En España, el proyecto Empantallados recogió respuestas de 922 participantes (207 alumnos de 14 a 18 años), arrojando una foto muy concreta: el 70 % del profesorado afirma marcar límites al uso de IA frente al 40 % de las familias, aunque 6 de cada 10 estudiantes confiesan haber ignorado esas restricciones; sobre frecuencia, un 15 % la usa a diario, el 51 % varias veces por semana, el 19 % una vez por semana y el 14 % rara vez, con usos predominantes como buscar información (80 %), estructurar trabajos (68 %) y consultar decisiones importantes (30 %).

Del mismo informe emergen siete habilidades humanas clave para navegar en el mundo de la IA: adaptación (7 de cada 10 ven el impacto como positivo para su futuro laboral), pensamiento crítico (más del 40 % ha compartido contenidos que luego resultaron falsos), creatividad (casi la mitad del profesorado quiere fomentar la conexión de ideas más allá de la IA), relaciones interpersonales (el 70 % cree que la IA influye en su empatía), capacidad de esfuerzo (6 de cada 10 docentes temen que baje), aprendizaje intergeneracional (un 45 % de familias aprende al hablar de IA con sus hijos) y responsabilidad ética (el 50 % del alumnado no percibe que su centro les prepare para un uso responsable).

Te puede interesar:  Cómo poner el widget de WhatsApp en iPhone

Riesgos específicos: una taxonomía para entender dónde se tuerce

Un trabajo reciente que analizó conversaciones reales entre adolescentes y sistemas generativos, debates en foros y reportes de incidentes identificó 84 riesgos concretos agrupados en seis áreas; el gran aporte de este enfoque es que no mira solo el contenido, sino el proceso de interacción sostenida y cómo ahí se activan dinámicas que pueden dañar el bienestar emocional y el desarrollo.

Bienestar mental: riesgo de dependencia afectiva de un chatbot, uso problemático que desplaza estudio, sueño o vida social, exacerbación de vulnerabilidades previas (ansiedad y depresión), confusión entre vivencias virtuales y reales y respuestas inapropiadas ante crisis emocionales, llegando a validar narrativas de desesperanza o ideas autodestructivas que requieren derivación inmediata a profesionales y líneas de ayuda de emergencia; aquí la detección precoz es vital.

Desarrollo conductual y social: refuerzo de conductas manipuladoras o agresivas, merma de habilidades sociales al sustituir trato humano por IA, normalización de interacciones sin consentimiento en simulaciones, exploración sexual guiada por IA que confunde identidad y límites, y aislamiento progresivo cuando la relación con el sistema ocupa el centro de la vida del menor; son efectos que impactan de lleno en la maduración psicoafectiva.

Interacciones tóxicas con la propia IA: generación de insultos y lenguaje violento sin provocación, contenido sexual inapropiado o sensible, simulación de conductas autolesivas e introducción de temas dañinos en conversaciones aparentemente inocuas; la combinación de modelos generativos y fallos de moderación puede desencadenar experiencias hostiles.

Mal uso: creación de deepfakes con fines de acoso o explotación, difusión de bulos y propaganda, estafas y suplantación, consejos erróneos en salud, derecho o educación con efectos graves, y ciberacoso amplificado por herramientas generativas; las capacidades de la tecnología abaratan y aceleran conductas que antes requerían más medios, con un potencial dañino a terceros.

Sesgos y discriminación: refuerzo de estereotipos por género, raza u orientación, generación de discursos de odio, exclusión de minorías en imágenes y normalización de actitudes discriminatorias durante la conversación; el problema nace en datos de entrenamiento y en diseños que no mitigan prejuicios algorítmicos.

Privacidad: uso de datos e imágenes de menores sin consentimiento, presión conversacional para que revelen información sensible, filtraciones con datos financieros o de identidad y exposición involuntaria de detalles íntimos; a menudo los adolescentes confían en que el entorno es seguro y no calibran los riesgos de exposición digital.

Sobre dependencia emocional, un análisis de 2025 con adolescentes de 13 a 17 años observó etapas repetidas: búsqueda inicial de compañía o alivio, escalada de uso y apego, aparición de consecuencias negativas en la vida diaria y, finalmente, intentos de autorregulación o abandono motivados por factores internos (reflexión, búsqueda de equilibrio) y externos (nuevas amistades, exigencias académicas, límites de plataforma); este patrón, descrito en una tabla de fases, ilustra un ciclo de enganche y retirada propio de ciertas tecnologías.

Para entender cómo surgen los daños, se propusieron cuatro patrones: daño mutuo en escalada (retroalimentación entre usuario e IA que refuerza emociones o conductas nocivas), daño intrapersonal (el joven inicia algo perjudicial y la IA lo facilita), daño interpersonal (la IA se usa deliberadamente para dañar a otros) y daño autónomo (la IA genera por sí misma resultados peligrosos por sesgos o fallos). Así, el sesgo y la toxicidad emanan del componente autónomo, el mal uso encaja en lo interpersonal, y las áreas de desarrollo, bienestar y privacidad pueden darse por múltiples vías; un esquema visual lo representa conectando categorías y patrones.

¿Y los beneficios? Evidencia y límites de las apps de salud mental

Junto a los riesgos, la literatura documenta usos clínicos y psicoeducativos con potencial, especialmente cuando se implementan con rigor: las herramientas de IA que integran técnicas cognitivo-conductuales, diseñadas junto a especialistas, con más de cinco años de experiencia y seguimiento validado por pruebas estandarizadas, han mostrado mejoras en la detección, monitorización y reducción de síntomas de ansiedad y depresión en usuarios; en esos estudios se subraya que la IA actúa como primera línea de apoyo y complemento a la terapia humana.

Una revisión documental de corte transversal centrada en adolescentes recogió datos demográficos, epidemiológicos y estadísticos para comparar resultados entre plataformas; curiosamente, aunque la población objetivo eran menores, la muestra agregada de conveniencia reportada sumó 36.144 adultos universitarios, lo que revela una tensión metodológica habitual: necesitamos más ensayos con población adolescente bien representada para afinar la validez externa y trasladar hallazgos con seguridad.

Además de la evidencia clínica, estudios en telemedicina reportan reducciones inmediatas de ansiedad con ejercicios guiados en apps y mejoría de resultados al combinar herramientas digitales con terapia tradicional; de hecho, el seguimiento automatizado del estado de ánimo entre sesiones ayuda a los profesionales a personalizar la intervención y, de paso, aumenta la adherencia. Eso sí, todo dentro de sistemas bien regulados y con supervisión.

Te puede interesar:  Cómo eliminar un WhatsApp enviado

Para quienes buscan recursos cercanos, la derivación a profesionales es clave: desde servicios públicos y privados hasta colegiados locales y redes de atención, incluidos psicólogos en Salamanca y Zamora, el acceso a consulta presencial o por videollamada ofrece el marco idóneo para integrar herramientas digitales de forma segura y eficaz.

Alertas de expertos y organismos: lo que no debemos repetir

Una advertencia frecuente en revistas biomédicas de referencia es que vamos tarde: si la regulación, la investigación y la educación llegan con retraso, la tecnología ya estará integrada en hábitos juveniles; Karen L. Mansfield, psicóloga de la Universidad de Oxford, avisa de que podríamos quedar atrapados en otro ciclo de pánico mediático sin haber hecho la IA realmente segura para menores, mientras crece la preocupación por su uso en agentes de IA similares a humanos y la producción de imágenes o vídeos indistinguibles (deepfakes) capaces de influir en emociones y conductas.

También se señalan herramientas de recomendación y autodiagnóstico en línea de depresión, ansiedad o trastornos alimentarios, que los adolescentes usan cada vez más sin supervisión; a ello se suma un dato escalofriante de violencia en línea: cada año, uno de cada doce menores sufre abusos o explotación sexual en el mundo, una realidad agravada por el low cost de creación y difusión de contenidos gracias a la IA; el mensaje de fondo es claro: formación, información e investigación por delante de prohibiciones aisladas.

La experiencia de ciberseguridad corrobora que lo más dañino no está escondido en la red profunda, sino a un clic en la web abierta, y que a ciertas edades falta la ‘mochila’ de experiencia para identificar señales de alarma; además, un informe de Kaspersky sobre familias en línea revela que casi la mitad de los menores españoles tiene su primer contacto con un dispositivo conectado antes de los 7 años, el 24,5 % de progenitores no habla nunca de los riesgos digitales y el 75 % admite que su hijo no tenía nociones suficientes de uso seguro; en este contexto, el diálogo temprano es más decisivo que cualquier bloqueo técnico.

Desinformación, antropomorfismo y credibilidad excesiva

Otra dimensión clave es cómo percibimos a las máquinas: la IA generativa conversa con naturalidad, pide matices, ofrece alternativas y, por ello, tendemos a humanizarla; especialistas en psicología y comunicación digital explican que esa apariencia ‘amable’ hace que muchos jóvenes otorguen más credibilidad a lo que responde una máquina, como si fuera infalible, y aquí anida el riesgo de aceptar orientaciones dudosas o malinterpretar mensajes.

La privacidad no se queda atrás: análisis de apps de salud mental han mostrado que un porcentaje significativo comparte datos con terceros sin un consentimiento claro; y no faltan casos mediáticos donde un chatbot emitió respuestas que trivializaban conductas de riesgo, poniendo en evidencia la necesidad de salvaguardas más estrictas y de sistemas de moderación contextual que paren a tiempo conversaciones problemáticas, sobre todo en usuarios vulnerables.

A todo esto se suma un uso extendido de herramientas en edades tempranas: el 18 % de las chicas y el 13 % de los chicos reconocen haber usado ChatGPT para distintas funciones en una etapa en la que el 41 % de la juventud ha atravesado algún problema de salud mental; a la vez, el 78 % de ellas y el 70 % de ellos muestran preocupación por el mal uso de estas herramientas, y el tema ha llegado a la agenda institucional, con el propio Ministerio de Sanidad señalando riesgos emergentes en mensajes públicos.

Género, imagen corporal y nuevas formas de violencia

Las brechas de género se notan en primera línea: un estudio sobre adolescencia en España muestra que el 84 % de las chicas de 12 a 16 años teme que su imagen se utilice para generar contenido sexual falso, mientras el 72 % de los chicos de 12 a 21 años está preocupado por ser acusado injustamente de violencia de género; la encuesta, con 3.500 adolescentes, también dibuja un mapa de inquietudes: un tercio carece de recursos económicos para estudiar lo que desea, tres de cada cuatro temen que la IA reemplace empleos, y el 70 % ha recibido críticas sobre su aspecto físico.

Casi la mitad se compara con cuerpos de redes sociales y un tercio se plantea someterse a cirugía estética, en una espiral donde la estética filtrada del entorno digital impacta directamente en la autoestima; pese a todo, la mayoría declara sentirse satisfecha con su vida y mirar al futuro con ilusión, con la familia como el ámbito que mayor satisfacción aporta (85 %), un apoyo protector que conviene reforzar y cuidar.

Te puede interesar:  Cómo Poner Vídeos en el Estado de WhatsApp

Medidas concretas: diseño seguro, moderación, familias y pediatría

El primer paso es que la protección de la infancia se integre en el diseño de los sistemas: IA como aliada desde el principio, con refuerzos positivos que promuevan autorreflexión, pensamiento crítico y hábitos saludables; además, las estrategias de moderación deben ir más allá del filtrado de palabras prohibidas y adoptar enfoques contextualizados capaces de detectar a tiempo patrones de conversación que escalan hacia daño, activando señales tempranas y derivaciones seguras.

Las familias necesitan información clara para elegir herramientas, fijar límites y conversar sin miedo; conviene reconocer cómo se intensifican los riesgos en la interacción sostenida con un chatbot, aprender a ver señales de alerta y, sobre todo, predicar con el ejemplo; para los profesionales que trabajan con menores, la formación específica en IA y sus efectos psicosociales ya no es opcional, y las políticas públicas deben actualizarse para proteger la integridad de la infancia con obligaciones de seguridad por diseño.

En consulta pediátrica se pueden incorporar tres preguntas sencillas para cribado y orientación: cuánto tiempo usan la IA, con qué finalidad y qué apps o sistemas emplean; esa mini-entrevista abre la puerta a educación digital y a detectar usos problemáticos; también facilita la derivación a recursos locales, desde servicios especializados a psicólogos en Salamanca u otras ciudades, reforzando la red de apoyo humano que la tecnología puede complementar pero no sustituir.

La experiencia de Perú aporta lecciones útiles: en un ciclo sobre IA y salud mental, especialistas subrayaron que los adolescentes son especialmente vulnerables al uso excesivo de chatbots por su impacto en pensamiento crítico, memoria y creatividad; recordaron que el 73 % de intentos de suicidio reportados entre 2016 y 2024 corresponde a personas de 12 a 29 años, lo que obliga a fortalecer vínculos humanos; también se señaló que menos de mil soluciones tecnológicas de salud cuentan con aprobación regulatoria en el mundo, y que hace falta pasar del discurso de ‘IA responsable’ a una ética del cuidado centrada en la confidencialidad y la protección de pacientes.

Desde la moderación clínica se insiste: la IA es una herramienta complementaria, nunca un sustituto del vínculo humano; un abrazo, una mirada o una palabra de aliento no se programan, y en salud mental el acompañamiento profesional pesa tanto como la técnica; por eso, integrar correctamente herramientas digitales en modelos híbridos requiere protocolos, supervisión y una cultura de prudencia.

Innovación responsable: modelos híbridos y nuevos servicios

El ecosistema emprendedor explora fórmulas mixtas que combinan tecnología y personas, como una plataforma española que, con suscripción mensual, conecta a jóvenes con recién graduados en Psicología para un acompañamiento periódico de bienestar; el registro comienza con un test, la IA sugiere el profesional que mejor encaja, hay diez días gratis para tener el primer encuentro y luego se elige uno, dos o cuatro encuentros al mes por videollamada, con la promesa de accesibilidad y precios asequibles.

Este tipo de servicios ya trabajan en chatbots complementarios para resolver dudas entre sesiones (por ejemplo, un ‘ZicoChat’) y aspiran a liderar el bienestar emocional juvenil en España; su crecimiento ha pasado por programas de emprendimiento universitario y estancias en hubs tecnológicos, donde conocen metodologías de inversión y amplían red; el reto ahora es consolidar marcos éticos, validar resultados y demostrar que la tecnología puede aumentar alcance sin perder calidad.

En paralelo, conviene recordar límites: la tentación de medir el éxito solo por retención o número de conversaciones debe ceder ante indicadores de seguridad y bienestar; y los desarrolladores han de colaborar con clínicos para someter sus sistemas a revisión independiente, cumplir con normativas de privacidad robustas, explicar con transparencia qué datos recogen y cómo los usan, y activar controles para minimizar sesgos y evitar daños colaterales.

Mirando el conjunto, la IA en salud mental adolescente combina luces y sombras: hay evidencia de utilidad como apoyo inicial y complemento terapéutico, se usan a diario con fines educativos o de organización, y los jóvenes valoran su inmediatez; pero también existen riesgos específicos en bienestar, desarrollo, toxicidad, mal uso, sesgos y privacidad, amplificados por relaciones parasociales y por una tendencia a antropomorfizar que puede llevar a confiar demasiado en respuestas automatizadas; el camino sensato pasa por diseño seguro, moderación contextual, educación digital en familias y escuelas, cribado clínico sencillo en consultas y modelos híbridos donde la tecnología sume sin ocupar el lugar de la relación humana.

Impacto de redes sociales en salud mental de adolescentes
Artículo relacionado:
Redes sociales y salud mental adolescente: desafíos y prevención