Investigan a TikTok por difusión de contenidos de abuso sexual infantil reales y con IA
Una investigación en España detectó decenas de cuentas en TikTok que publican videos sexualizados de menores, generados con inteligencia artificial o extraídos de perfiles reales.
El análisis, realizado por el sitio Maldita.es, identificó 40 cuentas con más de 1,5 millones de seguidores que publican miles de videos de menores sexualizadas. De ese material, más de 5.200 fueron generados con inteligencia artificial y otros 3.600 pertenecen a menores reales, muchos con la marca de agua de TikTok visible, lo que permite llegar al perfil original.
Algoritmos y canales de contacto que facilitan la difusión
Según la investigación, los comentarios de los videos se usan como canal de contacto y derivación a grupos de Telegram donde se vende o intercambia contenido ilegal. Incluso se encontraron enlaces directos a sitios externos con material de abuso infantil.
Los investigadores comprobaron que, con una cuenta de prueba, el algoritmo de TikTok comenzó a recomendar más videos de menores sexualizadas, tanto en Para Ti como en el buscador y las sugerencias de suscripción a creadores.
Respuesta de Telegram y fallas en la moderación de TikTok
Telegram afirmó estar comprometido con la prevención del material de abuso infantil y eliminar más de 909.000 grupos y canales relacionados con CSAM durante 2025. Sin embargo, TikTok solo eliminó 7 de 60 videos reportados y 14 de 15 cuentas denunciadas continuaron activas o parcialmente accesibles, según el informe.
La investigación señala que esto podría derivar en sanciones legales por permitir la difusión de contenido ilegal y exponer a menores, reales o generados con IA.