Niños y niñas en imágenes sexuales creadas con inteligencia artificial: la nueva preocupación digital para la ONUTecnologías

Niños y niñas en imágenes sexuales creadas con inteligencia artificial: la nueva preocupación digital para la ONU

Especialistas de la ONU advierten que la generación de imágenes sexuales infantiles mediante IA facilita la explotación en línea, normaliza el abuso y dificulta la persecución legal al no involucrar a menores reales.

Por: Héctor Chinchillas Ramírez  

La Organización de las Naciones Unidas (ONU), a través del Fondo de las Naciones Unidas para la Infancia (Unicef), emitió una alerta sobre el incremento en el uso de tecnologías de inteligencia artificial (IA) para generar imágenes sexualizadas de menores.

La entidad describió este fenómeno como una forma de explotación sexual infantil y solicitó a los gobiernos actualizar sus normativas para castigar este tipo de contenido.

Un reciente estudio en al menos 11 países indicó que 1.2 millones de niños y adolescentes admitieron haber sido afectados por imágenes con contenido sexual explícito creadas o modificadas con IA durante el último año.

En ciertos contextos, esta cifra equivale a aproximadamente uno de cada 25 niños o niñas, es decir, aproximadamente un estudiante por salón de clases.

Qué clase de contenido está bajo vigilancia de la ONU

Unicef señaló que las herramientas de IA se emplean para fabricar o modificar imágenes, videos o audios con apariencia real —conocidos como deepfakes— que contienen material sexual explícito infantil.

Entre estas técnicas se encuentra la “nudificación”, que consiste en quitar o alterar la ropa en fotos para generar imágenes falsas sexualizadas de menores.

El organismo enfatizó que cuando se utiliza la imagen o identidad de un niño de esta manera, esa persona es considerada víctima directa del abuso, aunque no se identifique a la persona real detrás de la imagen.

Asimismo, la proliferación de estas imágenes contribuye a la normalización de la explotación sexual infantil en medios digitales y presenta desafíos complejos para la protección de la niñez.

Razones por las que ese material se considera abuso

Unicef declaró que las imágenes sexualizadas de menores generadas con IA constituyen material de abuso sexual infantil (CSAM) y que, pese a su creación artificial, el daño que ocasionan no es “ficticio” ni inocuo. Esto se debe a que:

Te puede interesar: Mujeres, las más vulnerables al impacto de la IA en el empleo: estudio indica que más de 6 millones de trabajadoras están en alto riesgo, especialmente en cargos administrativos

Aspectos legales y retos para la regulación

Aunque varias naciones cuentan con normativas para proteger la imagen, dignidad y derechos de los menores, estas leyes no contemplan específicamente la inteligencia artificial.

En México, por ejemplo, la legislación vigente resguarda la imagen y voz de niños, niñas y adolescentes, pero carece de sanciones o normas concretas para contenidos creados o alterados con IA.

Unicef y otras entidades de la ONU instan a los gobiernos a:

Más Noticias