Lectura fácil
UNICEF manifiesta su creciente preocupación por las informaciones sobre el rápido aumento del volumen de imágenes sexualizadas generadas por inteligencia artificial (IA) que están circulando, incluidos casos en los que se han manipulado y sexualizado fotografías de niños y niñas. Esto da lugar a un abuso sexual infantil hacia los menores.
Los deepfakes, un abuso para las herramientas de IA
Los deepfakes —imágenes, vídeos o audios generados o manipulados con IA para que parezcan reales— se utilizan cada vez más para producir contenidos sexualizados en los que aparecen niños y niñas, incluso mediante la ‘nudificación’, que consiste en utilizar herramientas de IA para quitar o alterar la ropa de las fotos y crear imágenes falsas de desnudos o sexualizadas.
Nuevas pruebas confirman la magnitud de esta amenaza en rápido crecimiento: en un estudio realizado en 11 países por UNICEF, ECPAT (siglas inglesas de Acabar con la Prostitución Infantil, la Pornografía Infantil y el Tráfico de Niños con Fines Sexuales) e INTERPOL, al menos 1,2 millones de niños y niñas revelaron que sus imágenes habían sido manipuladas para crear deepfakes sexualmente explícitos en el último año. En algunos países, esto representa 1 de cada 25 niños, lo que equivale a uno de cada aula escolar estándar.
Un peligro para los menores
Los propios niños y niñas son muy conscientes de este riesgo. En algunos de los países del estudio, hasta dos tercios afirmaron que les preocupa que la IA pueda utilizarse para crear imágenes o vídeos sexuales falsos. Los niveles de preocupación varían mucho entre los distintos países, lo que subraya la urgente necesidad de reforzar las medidas de sensibilización, prevención y protección.
Utilizar la imagen o la identidad de un niño o una niña lo convierte directamente en víctima. Pero incluso si no existe una víctima identificable, un material generado por IA que muestre abusos sexuales de niños y niñas normaliza la explotación sexual infantil, impulsa la demanda de contenidos abusivos y plantea importantes obstáculos a las fuerzas del orden a la hora de identificar y proteger a los niños y niñas que necesitan ayuda.
UNICEF lucha para utilizar medidas de protección
UNICEF valora positivamente los esfuerzos de los desarrolladores de IA que están aplicando enfoques de seguridad desde el diseño y sólidas medidas de protección para evitar el uso indebido de sus sistemas. Sin embargo, el panorama sigue siendo desigual y son demasiados los modelos de IA que no se desarrollan con las salvaguardias adecuadas. Los riesgos pueden agravarse cuando las herramientas de IA generativa se integran directamente en las plataformas de redes sociales, donde las imágenes manipuladas se difunden rápidamente.
Por ello, UNICEF insta urgentemente a que se adopten las siguientes medidas para hacer frente a la creciente amenaza que supone el material de abuso sexual infantil generado por la IA:
- Todos los gobiernos deben ampliar las definiciones de material de abuso sexual infantil para incluir el contenido generado por IA, y penalizar su creación, adquisición, posesión y distribución.
- Los desarrolladores de IA deben implementar enfoques de seguridad desde el diseño y medidas de protección sólidas para evitar el uso indebido de los modelos de IA.
- Las empresas digitales deben evitar la circulación de material de abuso sexual infantil generado por IA, en vez de limitarse a eliminarlo después de que se haya producido el abuso; además, deben reforzar la moderación de contenidos invirtiendo en tecnologías de detección, de modo que dicho material pueda eliminarse de inmediato, y no días después de que la víctima o su representante lo hayan denunciado.
El daño causado por el abuso de los deepfakes es real y urgente. Los niños y niñas no pueden esperar a que la legislación se actualice”.
Añadir nuevo comentario