Unicef: Al menos 1,2 millones de niños han sido afectados por imágenes sexualizadas generadas por IA en el último año

El Ciudadano

Un estudio llevado a cabo en 11 países alertó que al menos 1,2 millones de niños y niñas revelaron haberse visto afectados en el último año por la manipulación de sus imágenes mediante ‘deepfakes’ con contenido sexual explícito.

«En algunos países, esa cifra representa 1 de cada 25 niños y niñas, lo que equivaldría a un niño o una niña de un aula escolar estándar», señalaron desde la Unicef en un comunicado, en el cual recordaron que los abusos cometidos por estas imágenes generadas con Inteligencia Artificial «siguen siendo abusos».

Los datos forman parte de la segunda fase del proyecto Disrupting Harm, investigación dirigida por Innocenti, la Oficina de Estrategia y Datos de Unicef, Ecpat International e Interpol, con financiamiento de Safe Online.

El proyecto analiza la manera en que las tecnologías digitales pueden facilitar la explotación y el abuso sexual infantil, generando a su vez datos con base empírica para reforzar los sistemas, políticas y respuestas nacionales ante este complejo panorama.

«Durante el desarrollo de esta fase, se publicarán informes nacionales con los resultados de cada país a lo largo de 2026», explicaron desde la entidad.

En esa línea, las estimaciones presentadas en este primer reporte se basan en encuestas de hogares representativas a nivel nacional realizadas por Unicef e Ipsos en 11 países.

Asimismo, se informó que la investigación se llevó a cabo en países que representaban diversos contextos regionales: «Cada encuesta incluyó a un niño o niña de entre 12 y 17 años, y a una madre, padre o cuidador, utilizando un diseño de muestreo orientado a lograr una cobertura nacional completa o casi completa (91%-100%)», puntualizaron.

Con estos antecedentes a la vista, Unicef advirtió que el daño que provoca el abuso mediante deepfakes «es real y requiere una acción inmediata. Los niños y niñas no pueden estar esperando a que la legislación se actualice».

«Debemos ser claros: las imágenes sexualizadas de menores creadas o manipuladas por herramientas de IA constituyen imágenes de abusos sexuales de niños y niñas. Los abusos cometidos mediante deepfakes siguen siendo abusos y, aunque las imágenes sean falsas, el daño que causan es absolutamente real», recalcaron desde Unicef.

«Utilizar la imagen o la identidad de un niño o una niña lo convierte directamente en víctima. Pero incluso si no existe una víctima identificable, un material generado por IA que muestre abusos sexuales de niños y niñas normaliza la explotación sexual infantil, impulsa la demanda de contenidos abusivos y plantea importantes obstáculos a las fuerzas del orden a la hora de identificar y proteger a los niños y niñas que necesitan ayuda», agregaron desde la entidad dependiente de Naciones Unidas.

Los niños están conscientes del peligro

Un aspecto importante revelado en el estudio tiene que ver con que los propios niños y niñas están muy conscientes de este peligro.

«En algunos de los países del estudio, hasta dos terceras partes de los niños y niñas afirmaron estar preocupados por que se pudiera emplear la IA para falsificar imágenes o vídeos suyos con carácter sexual. Los niveles de preocupación varían ampliamente entre países, lo cual subraya la urgente necesidad de aumentar la concienciación y las medidas de prevención y protección», indicó la Unicef.

Medidas urgentes

Para hacer frente a este panorama, Unicef hizo un llamado urgente a las autoridades de todos los países a que se tomen las siguientes medidas:

  • Todos los gobiernos deben ampliar las definiciones de lo que constituyen imágenes de abusos sexuales de niños y niñas para incluir el contenido generado por IA, así como penalizar su creación, adquisición, posesión y distribución.
  • Los desarrolladores de IA deben aplicar enfoques de seguridad desde el diseño y medidas sólidas de salvaguardia para evitar el uso indebido de los modelos de IA.
  • Las empresas digitales deben evitar la circulación de imágenes de abusos sexuales de niños y niñas –en lugar de limitarse a eliminarlas una vez se han difundido–, así como reforzar la moderación de contenidos a través de inversiones en tecnologías de detección, de manera que esos materiales puedan retirarse de inmediato y no días después de una denuncia por parte de una víctima o su representante.

Sigue leyendo sobre este tema:

El Ciudadano

La entrada Unicef: Al menos 1,2 millones de niños han sido afectados por imágenes sexualizadas generadas por IA en el último año se publicó primero en El Ciudadano.

Febrero 4, 2026 • 3 horas atrás por: ElCiudadano.cl 25 visitas 1750961

🔥 Ver noticia completa en ElCiudadano.cl 🔥

Comentarios

Comentar

Noticias destacadas


Contáctanos

completa toda los campos para contáctarnos

Todos los datos son necesarios