La inteligencia artificial está siendo utilizada para abusar de niños a una escala que las instituciones apenas comienzan a dimensionar. Lo que antes requería tiempo, contacto directo y redes clandestinas, ahora puede producirse con unos cuantos clics: imágenes sexuales falsas de menores reales, acoso personalizado mediante algoritmos y extorsión digital automatizada. Frente a este escenario, el sistema de Naciones Unidas lanzó una advertencia clara: la tecnología avanza más rápido que la capacidad de los Estados, las empresas y la sociedad para proteger a la infancia.
El diagnóstico no deja espacio para la ambigüedad. La Unión Internacional de Telecomunicaciones sostiene que la IA se ha convertido en un multiplicador de riesgos para niñas, niños y adolescentes. Deepfakes, ciberacoso, acoso sexual y exposición temprana a contenidos violentos forman parte de un ecosistema digital que, lejos de ser neutral, está fallando en garantizar condiciones mínimas de seguridad. Cosmas Zavazava, director de la Oficina de Desarrollo de las Telecomunicaciones de la UIT, ha advertido que estas agresiones no se quedan en el plano virtual. Durante la pandemia de la COVID-19, el aumento del tiempo en línea detonó abusos que derivaron en daños físicos y afectaciones psicológicas profundas.
La diferencia ahora es la sofisticación. Organizaciones defensoras de los derechos de la infancia alertan que los agresores utilizan sistemas de inteligencia artificial para analizar el comportamiento en línea de los menores, identificar estados emocionales y explotar vulnerabilidades específicas. La IA permite personalizar el acoso, hacerlo más persistente y más difícil de detectar. Al mismo tiempo, facilita la creación de imágenes sexuales falsas a partir de fotografías reales, inaugurando una modalidad de violencia que no requiere contacto directo y que deja secuelas permanentes en las víctimas.
Las cifras muestran un crecimiento que alarma incluso a los especialistas. El Instituto Global de Seguridad Infantil Childlight documentó que los casos de abuso infantil facilitado por tecnología en Estados Unidos pasaron de cuatro mil 700 en 2023 a más de 67 mil en 2024. El salto no responde únicamente a una mayor denuncia, sino a la expansión acelerada de herramientas de IA generativa sin controles efectivos. Aunque los datos corresponden a un solo país, organismos internacionales advierten que el patrón se repite en distintas regiones.
La respuesta institucional ha sido lenta y desigual. Australia decidió romper con la inercia y, a finales de 2025, se convirtió en el primer país en prohibir el acceso a redes sociales a menores de 16 años. La medida se sustentó en evidencia contundente: casi dos tercios de los niños de entre 10 y 15 años habían estado expuestos a contenido violento, de odio o perturbador, y más de la mitad reportó haber sufrido ciberacoso. La mayor parte de estos episodios ocurrió en plataformas sociales de uso cotidiano. El caso australiano colocó el tema en la agenda internacional y abrió la puerta a regulaciones similares en países como Francia, Reino Unido, Canadá y Malasia, mientras la Unión Europea endurece su escrutinio sobre las grandes tecnológicas.
En este contexto, a comienzos de 2026, agencias del sistema de Naciones Unidas publicaron una Declaración Conjunta sobre la Inteligencia Artificial y los Derechos del Niño que reconoce una falla estructural: la sociedad no está preparada para enfrentar los riesgos que la IA plantea a la infancia. El documento identifica una carencia generalizada de alfabetización en inteligencia artificial entre niños, padres, docentes y cuidadores, así como una preocupante falta de capacitación técnica entre gobiernos y responsables de diseñar políticas públicas.
El señalamiento alcanza de manera directa al sector privado. Según la declaración, la mayoría de las herramientas basadas en IA no han sido diseñadas considerando el bienestar infantil. Zavazava ha sido explícito al señalar que el argumento de no frenar la innovación no puede seguir justificando la ausencia de salvaguardas. La ONU insiste en que es posible desplegar inteligencia artificial de forma responsable, mantener modelos de negocio rentables y competir en el mercado sin normalizar daños colaterales sobre los menores.
La postura de Naciones Unidas plantea un reparto claro de responsabilidades. Padres, escuelas, autoridades regulatorias, empresas tecnológicas y sector privado deben asumir un papel activo en la protección de la infancia en línea. Las directrices elaboradas buscan cerrar vacíos, desde la educación digital temprana hasta la obligación de que los productos tecnológicos incorporen, desde su diseño, mecanismos de prevención y respuesta ante abusos.
Este debate no es nuevo, pero sí más urgente. En 2021, la Convención sobre los Derechos del Niño incorporó referencias explícitas a los riesgos del entorno digital. Sin embargo, la velocidad con la que evoluciona la inteligencia artificial ha dejado obsoletos muchos marcos de protección. “Los niños se conectan a Internet a una edad cada vez más temprana y deben estar protegidos”, ha insistido Zavazava. En la práctica, esa protección sigue llegando tarde.
En la era de la inteligencia artificial, la violencia contra la infancia ya no requiere presencia física ni estructuras criminales complejas. Basta con un algoritmo. La pregunta que queda abierta no es si la tecnología puede causar daño, sino cuánto tiempo más tardarán gobiernos y empresas en asumir que la omisión también es una forma de responsabilidad.
Te puede interesar: Generación Z, entre el repliegue y el regreso
Facebook: Yo Influyo





