Los expertos de la Fundación Internet Watch (IWF, por sus siglas en inglés) han documentado discusiones entre infractores en comunidades de la dark web, donde estos usuarios comparten entusiasmo sobre la accesibilidad y el progreso de herramientas basadas en inteligencia artificial (IA) para la producción de material delictivo. Según consignó la IWF a través de su informe más reciente, la facilidad para generar imágenes y vídeos realistas de abuso sexual infantil mediante IA ha consolidado la presencia de este contenido tanto en entornos ocultos de internet como en plataformas comerciales abiertas. Este fenómeno, reportó la IWF, ha impulsado un crecimiento del 14 por ciento en el hallazgo de este tipo de contenido en 2025, con la identificación de 8.029 imágenes y vídeos que presentan abuso sexual infantil fabricado artificialmente.
El informe, titulado ‘Daños sin límites: material de abuso sexual infantil generado por IA desde la perspectiva de nuestros analistas’, detalla que la organización ha estado monitorizando el uso de la IA con este fin desde principios de 2023, observando una evolución significativa en la capacidad para crear imágenes y vídeos de alto realismo que contienen material delictivo. Según publicó la IWF, el incremento en la generación de este tipo de imágenes responde directamente a la creciente disponibilidad y la facilidad de uso que ofrecen las nuevas tecnologías de IA.
Tal como reveló la IWF, los vídeos generados mediante inteligencia artificial presentan una tendencia a ser más graves y complejos en comparación con aquellos no manipulados de manera artificial. De los 3.443 vídeos de abuso sexual infantil generados por IA registrados en 2025, el 65 por ciento, es decir, 2.233 piezas, fue clasificado en la categoría A, la nota más alta definida por la legislación del Reino Unido, que incluye registros considerados como violación o tortura sexual. En contraste, los vídeos delictivos no generados por IA analizados por la misma entidad alcanzaron un 43 por ciento de la categoría A. Esta diferencia, recogida en el informe, muestra un uso más intensivo de la IA para producir contenidos más violentos.
El volumen total de vídeos generados mediante estas técnicas se multiplicó notablemente en comparación con el año anterior. Según registró la IWF, el salto fue de 13 vídeos en 2024 a 3.443 en 2025, lo que representa un aumento de más de 260 veces.
El documento advierte que, a pesar de que el porcentaje de imágenes y vídeos generados por IA aún constituye una fracción mínima dentro del universo total de material de abuso sexual infantil procesado anualmente por la IWF, la gravedad y la cantidad de estas creaciones se han incrementado de manera notable. De acuerdo con el medio, los analistas han detectado que estas herramientas, por su accesibilidad, han modificado la forma en la que los infractores producen contenido. Foros de la dark web recopilaron múltiples testimonios de usuarios celebrando los avances tecnológicos, principalmente por facilitar la simulación de escenarios más realistas y extremos.
La IWF también señaló que las mejoras técnicas incluyen la posibilidad de añadir pistas de audio, la capacidad para representar diferentes individuos interactuando, o la manipulación de imágenes de menores reales conocidos por los perpetradores, aumentando así la sofisticación y el dramatismo del contenido generado.
El informe describe un caso reciente en X, la antigua Twitter, donde el generador de imágenes impulsado por la IA de Grok entregó aproximadamente tres millones de imágenes sexualizadas, dentro de las cuales se identificaron 23.000 que involucraban a menores, todo esto en respuesta a solicitudes formuladas por los propios usuarios de la plataforma.
La IWF documentó, además, conversaciones en foros donde se explora la posibilidad de desarrollar, a corto plazo, sistemas de IA automatizados que puedan producir material audiovisual delictivo a demanda, simplemente ingresando una consigna específica en un agente de IA libre de restricciones. Los analistas citaron comentarios de infractores que anticipan que esta funcionalidad podría estar disponible en uno o dos años.
En relación con la respuesta institucional y regulatoria, la directora ejecutiva de la IWF, Kerry Smith, declaró a través de un comunicado difundido por el medio que los avances tecnológicos “nunca deberían ir en detrimento de la seguridad y el bienestar de un niño”. Smith subrayó que, aunque la IA puede aportar beneficios en diversas áreas, su utilización para destruir la vida de un menor constituye un peligro claro. “Debe haber tolerancia cero”, expresó en el comunicado difundido por la organización.
La IWF destacó la necesidad de que tanto gobiernos como empresas desarrolladoras de tecnología asuman un papel activo en el reconocimiento y mitigación del daño asociado al uso de IA para la producción de material de abuso sexual infantil. Smith instó, además, a que las compañías adopten un modelo de “seguridad desde el diseño”, incorporando salvaguardas en sus productos, como la inhibición automática de los chatbots para evitar la generación de imágenes delictivas.
En el contexto normativo, el documento de la IWF reseña la decisión del Parlamento Europeo de extender de forma temporal la Directiva sobre privacidad electrónica, ampliando hasta el 3 de agosto de 2027 la exención que autoriza la detección voluntaria de materiales de abuso sexual infantil en internet. Según publicó la IWF, esta prórroga permite a los proveedores de servicios de comunicación, como las plataformas de mensajería, aplicar tecnologías específicas para procesar datos personales con el fin de identificar casos de abuso sexual de menores en línea.
El informe conjunto, elaborado a partir del monitoreo activo desde principios de 2023, aborda la rápida evolución en la generación de imágenes y vídeos artificiales mediante IA, así como el impacto del acceso masivo a estas tecnologías en la expansión y el aumento de la gravedad de los delitos sexuales cometidos contra menores a través de plataformas digitales.
completa toda los campos para contáctarnos