EFE
Naciones Unidas, 4 Feb.- UNICEF urgi贸 este mi茅rcoles a los gobiernos de todo el mundo a actuar ante el r谩pido aumento de contenido sexual infantil generado por inteligencia artificial (IA), una pr谩ctica que, seg煤n un estudio de la agencia, ya ha afectado a m谩s de un mill贸n de ni帽os y ni帽as.
El Fondo de las Naciones Unidas para la Infancia present贸 un estudio en colaboraci贸n con la ONG ECPAT e INTERPOL llevado a cabo en once pa铆ses en el que revelan que al menos 1,2 millones de ni帽os y ni帽as se vieron afectados en el 煤ltimo a帽o por la manipulaci贸n de sus im谩genes mediante 'deepfakes' con contenido sexual expl铆cito.
Se conoce como 'deepfake' o ultrafalso a los contenidos generados por IA que imitan de una forma muy realista la apariencia, la voz o los gestos de una persona.
"Debemos ser claros: las im谩genes sexualizadas de menores creadas o manipuladas por herramientas de IA constituyen im谩genes de abusos sexuales de ni帽os y ni帽as", asegur贸 UNICEF en un comunicado.
La agencia de la ONU afirm贸 que estos siguen siendo abusos porque "aunque las im谩genes sean falsas", causan un da帽o que "es real".
UNICEF hizo un llamamiento "urgente" a los gobiernos para frenar esta amenaza "creciente".
Entre otras cosas, pidi贸 que se ampl铆en las definiciones de lo que constituyen im谩genes de abusos sexuales de ni帽os y ni帽as para incluir el contenido generado por IA y se penalice su creaci贸n, adquisici贸n, posesi贸n y distribuci贸n.
El da帽o que provoca el abuso mediante 'deepfake' es real y requiere una acci贸n inmediata. Los ni帽os y ni帽as no pueden estar esperando a que la legislaci贸n se actualice.鈥
El Congreso de EU ha impulsado iniciativas relacionadas con el 'deepfake'.
En los 煤ltimos d铆as, Grok, la inteligencia artificial integrada en X, el antiguo Twitter, ha protagonizado una pol茅mica por generar im谩genes de contenido sexual en la plataforma sin ning煤n tipo de permiso y/o restricci贸n.