- Indonesia bloqueará a finales de marzo el acceso a redes sociales de alto riesgo para menores de 16 años, empezando por YouTube, TikTok, Facebook, Instagram, X, Threads, Bigo Live y Roblox.
- La medida se aplicará por etapas y las sanciones recaerán en las plataformas que no cumplan los requisitos de verificación de edad y protección infantil.
- El Gobierno justifica el veto por el aumento de riesgos digitales: pornografía, ciberacoso, fraude en línea, exposición a contenidos dañinos y adicción a las pantallas.
- La iniciativa sitúa a Indonesia en la misma ola regulatoria que Australia y varios países europeos, entre ellos España, Francia y Reino Unido, que avanzan en límites de edad y mayores obligaciones para las tecnológicas.

El Gobierno de Indonesia ha dado un paso contundente en la regulación del entorno digital al anunciar la prohibición de acceso a redes sociales consideradas de alto riesgo para los menores de 16 años. La medida, que se enmarca en una política más amplia de protección de la infancia en internet, refuerza la presión global sobre las grandes plataformas tecnológicas y se produce en paralelo a debates similares en Europa y España.
A partir del 28 de marzo, las cuentas pertenecientes a niños y adolescentes por debajo de los 16 años comenzarán a ser desactivadas en los servicios clasificados como de mayor peligrosidad. El Ejecutivo admite que el cambio puede generar molestias iniciales para familias y usuarios jóvenes, pero sostiene que la situación actual constituye una “emergencia digital” que exige actuar sin demora.
Qué redes sociales quedan vetadas y cómo se aplicará la prohibición
La nueva normativa indonesia se centra en las llamadas “plataformas sociales de alto riesgo”, una categoría que agrupa redes y servicios con fuerte componente social, contenido generado por usuarios y sistemas algorítmicos que favorecen la interacción masiva. Dentro de este grupo se encuentran YouTube, TikTok, Facebook, Instagram, Threads, X (antes Twitter), Bigo Live y Roblox, algunas de las aplicaciones más populares entre menores de todo el mundo.
Según ha explicado la ministra de Comunicación y Asuntos Digitales, Meutya Hafid, los menores de 16 años no podrán registrarse ni mantener cuentas activas en estas plataformas. El bloqueo se hará de forma escalonada, empezando por los servicios con mayor penetración juvenil, y continuará “hasta que todas las empresas cumplan plenamente con la regulación de protección infantil” vigente en el país.
El Ministerio de Comunicación ha insistido en que el objetivo no es expulsar a los menores de internet, sino limitar su presencia en los entornos que concentran más riesgos. El Gobierno estudiará qué servicios pueden ser considerados de bajo riesgo, de forma que los adolescentes entre 13 y 16 años aún puedan acceder a determinadas plataformas siempre que exista supervisión adulta y mecanismos de seguridad reforzados.
La aplicación práctica de la norma dependerá de nuevos sistemas de verificación de edad, controles de acceso y filtros de contenido que deberán implantar las propias compañías tecnológicas. Aunque por ahora Yakarta no ha detallado todos los procedimientos técnicos, sí ha dejado claro que se exigirá un nivel de cumplimiento significativo antes de dar por completada la transición.
Riesgos digitales que han desencadenado el veto
El Ejecutivo indonesio justifica la decisión en un panorama que considera cada vez más preocupante: exposición a pornografía y violencia, ciberacoso, estafas en línea, adicción a las pantallas y posibles daños psicológicos derivados del uso intensivo de redes sociales por parte de menores. Las autoridades aseguran que ya no se trata de episodios aislados, sino de un problema estructural.
En sus comunicados, el Gobierno subraya que las amenazas en el entorno digital para la infancia “son cada vez más reales” y que resulta inasumible mirar hacia otro lado mientras se normalizan dinámicas potencialmente dañinas: contacto con desconocidos, difusión de contenido sexual o violento, manipulación algorítmica de la atención y recopilación masiva de datos personales de niños y adolescentes.
Indonesia es el cuarto país más poblado del mundo y uno de los mercados digitales más grandes del Sudeste Asiático. Se estima que decenas de millones de menores utilizan a diario redes sociales, videojuegos en línea y plataformas de vídeo. Esa intensidad de uso incrementa el impacto de cualquier problema de seguridad y explica por qué el debate sobre el tiempo de pantalla, la salud mental y la exposición a contenidos dañinos ha escalado posiciones en la agenda política.
Las autoridades también han puesto el foco en la dimensión emocional del fenómeno. Estudios y datos citados por el Gobierno apuntan a que un porcentaje elevado de niños ha tenido contacto con contenidos sexuales o perturbadores, y muchos de ellos reconocen sentirse asustados o incómodos tras esas experiencias. Para Yakarta, estas cifras refuerzan la idea de que el problema no se reduce al acceso puntual, sino a las consecuencias psicológicas a medio y largo plazo.
En ese contexto, el Ministerio sostiene que la intervención regulatoria es necesaria para “retomar el control del futuro de los niños” y garantizar que la tecnología “humanice a las personas” en lugar de sacrificar la infancia a la lógica del engagement y la economía de la atención.
Un sistema escalonado por edades y niveles de riesgo
Más allá del titular del veto a los menores de 16 años en plataformas de alto riesgo, Indonesia está construyendo una arquitectura regulatoria basada en tramos de edad y categorías de peligrosidad. El diseño pretende equilibrar la alfabetización digital con la protección frente a los escenarios más críticos.
En la práctica, los menores de 13 años quedarán limitados a servicios específicamente dirigidos a público infantil y, en muchos casos, a contenidos educativos sin funciones sociales abiertas. La ley contempla incluso restricciones a páginas de educación en línea que permitan comunicación entre usuarios, con la intención de eliminar canales de contacto no supervisados entre niños y desconocidos.
Para el grupo de 13 a 16 años, la norma abre la puerta a que puedan seguir conectados a determinadas plataformas calificadas como de “bajo riesgo”, siempre que se cuente con el consentimiento expreso de un tutor y existan medidas claras de seguridad. En este segmento, el Ejecutivo opta por un enfoque intermedio: no se plantea una desconexión total, pero sí un control estricto de los espacios disponibles.
La diferencia esencial reside en la clasificación de las plataformas. El nivel de riesgo se determinará a partir de variables como la facilidad para contactar con extraños, la probabilidad de exposición a pornografía o violencia, el grado de intrusión en los datos personales y el potencial adictivo del servicio. Sobre esa base se decidirá qué redes quedan vetadas y cuáles podrían seguir operando para adolescentes con condiciones añadidas.
Este modelo supone una alternativa al veto absoluto aplicado en otros países, como Australia, donde se ha optado por cerrar directamente el acceso de los menores de 16 años a redes sociales. Yakarta, en cambio, intenta combinar un marco restrictivo en los entornos de mayor riesgo con un cierto margen de uso regulado en servicios considerados menos problemáticos.
Responsabilidad para las plataformas y régimen de sanciones
Uno de los aspectos más llamativos de la decisión indonesia es que las sanciones no recaerán sobre los niños ni sobre sus padres, sino sobre las empresas tecnológicas que no se adapten a la nueva normativa. La ministra Meutya Hafid ha insistido en que el Estado no quiere cargar la responsabilidad exclusivamente sobre las familias, sino obligar a las compañías a asumir un papel activo en la protección infantil.
El esquema de cumplimiento prevé multas, suspensión temporal de servicios e incluso el cierre definitivo en el país para aquellas plataformas que ignoren los requerimientos oficiales. En la práctica, esto supone situar a las grandes tecnológicas frente a una disyuntiva clara: invertir en sistemas eficaces de verificación de edad, moderación de contenido y seguridad, o arriesgarse a perder acceso a uno de los mercados con mayor población conectada.
El Gobierno ha repetido en varias ocasiones que “los padres no pueden luchar solos contra los gigantes de los algoritmos”. Con esta frase, pretende subrayar que la asimetría de poder entre familias y plataformas hace insuficiente la mera recomendación de supervisar el uso de los dispositivos. De ahí que la normativa despliegue obligaciones explícitas sobre diseño, gobernanza y cumplimiento por parte de las empresas.
Aunque los detalles técnicos todavía se están concretando, las autoridades han dejado entrever que se exigirán cambios profundos en los sistemas internos de las redes sociales: desde procesos de alta que permitan verificar de forma más fiable la edad real del usuario, hasta herramientas que faciliten la gestión del control parental y mecanismos de respuesta rápida ante denuncias de contenido dañino.
En paralelo, el anuncio se produce en un momento de creciente tensión entre Yakarta y algunas grandes compañías tecnológicas. Indonesia ha llamado la atención recientemente a Meta por cuestiones relacionadas con juegos en línea y desinformación en sus plataformas, lo que añade un contexto de mayor exigencia regulatoria a la relación entre el Estado y las firmas del sector.
Indonesia en la ola global de regulación de redes sociales para menores
La decisión de Yakarta no es un fenómeno aislado, sino parte de una tendencia internacional hacia el refuerzo de la protección digital de niños y adolescentes. En los últimos meses, varios países han anunciado o debatido normativas que limitan el acceso de los menores a las redes sociales y endurecen las obligaciones de las plataformas.
Australia se ha convertido en uno de los referentes más comentados al aplicar un veto total a las redes sociales para menores de 16 años, obligando a servicios como TikTok y YouTube a eliminar las cuentas de estos usuarios. Este movimiento ha alimentado el debate en otras jurisdicciones y ha servido de espejo para los defensores de restricciones más duras.
En Europa, Francia ha aprobado un proyecto de ley para impedir que las plataformas permitan el acceso a menores de 15 años sin autorización parental, mientras que Reino Unido ha reforzado sus normas de seguridad infantil en línea a través de su legislación sobre servicios digitales. Dinamarca y Grecia, por su parte, se han sumado a los llamamientos para que la Unión Europea adopte un enfoque común frente a los riesgos de las redes sociales en la infancia.
España también está en el centro de esta discusión. El Gobierno ha planteado la posibilidad de prohibir el uso de redes sociales a los menores de 16 años y de exigir una mayor responsabilidad directa a los altos cargos de las compañías tecnológicas en caso de incumplimientos graves. Además, se ha impulsado la creación de un comité de expertos en el seno de la UE para analizar si conviene establecer límites de edad armonizados a escala europea.
En paralelo a Indonesia, Malasia prepara una regulación similar con restricciones específicas para la población menor de edad, mientras que India ha manifestado que estudia medidas para proteger a los niños de abusos y contenidos dañinos en línea. Todo ello configura un entorno en el que las grandes plataformas se ven obligadas a adaptar sus estrategias a una creciente diversidad de marcos regulatorios.
Impacto potencial en los menores, las familias y las plataformas
La nueva normativa indonesia puede alterar de forma significativa el día a día de millones de niños y adolescentes que hasta ahora utilizaban estas plataformas como principal vía de entretenimiento, socialización e incluso acceso a información. Para muchos de ellos, perder el acceso a redes como TikTok, YouTube o Roblox supondrá un cambio drástico en sus rutinas digitales.
Desde la perspectiva de las familias, la medida ofrece un respaldo institucional a las preocupaciones de padres y madres que llevan años alertando de los riesgos asociados a un uso sin control de las redes. Al mismo tiempo, plantea nuevos retos: gestionar la frustración de los menores, buscar alternativas de ocio y comunicación y aprovechar el contexto para reforzar la educación digital en casa y en la escuela.
Para las plataformas, el impacto es doble. Por un lado, pueden perder una parte importante de su base de usuarios más jóvenes en un mercado clave; por otro, se ven obligadas a acelerar el desarrollo de herramientas de verificación de edad y protección infantil que probablemente tendrán que reutilizar en otros países con normativas similares.
El movimiento de Indonesia envía así un mensaje nítido a nivel global: los gobiernos están dispuestos a intervenir de forma directa en la relación entre menores y redes sociales si consideran que los mecanismos de autorregulación o los controles parentales no son suficientes. Y ese mensaje resuena con especial fuerza en Europa, donde la discusión sobre la edad mínima, la salud mental juvenil y la responsabilidad de las tecnológicas está lejos de haberse cerrado.
En conjunto, el veto indonesio a las redes sociales de alto riesgo para menores de 16 años, su sistema por niveles de edad y riesgo, y el foco en la responsabilidad de las plataformas reflejan un giro claro en la forma de abordar la protección de la infancia en el mundo digital, que otros países, entre ellos España y varios socios europeos, observan con atención mientras diseñan sus propias respuestas regulatorias.
