Desnudez profunda y chatbots empáticos: la inteligencia artificial es la nueva frontera de la pornografía infantil


La inteligencia artificial es la nueva frontera para los pedófilos
La nueva frontera de la pornografía infantil es la inteligencia artificial . Así lo denunció Don Fortunato Di Noto, sacerdote y fundador de la Asociación Meter ETS , que lleva más de treinta años luchando contra el abuso infantil. Hace dos días, en Roma, la Asociación presentó el primer dossier italiano dedicado íntegramente al impacto de la IA en el abuso en línea : chatbots, deepfakes y pornografía infantil virtual.
El Dossier del MedidorCon el informe, Don Di Noto y la Asociación también ofrecen su contribución a la labor del Papa León XIV, quien anunció una encíclica sobre la Inteligencia Artificial . El riesgo —subraya el dossier— es la normalización del abuso: si la imagen es generada por computadora, por lo tanto las víctimas no son físicas, entonces ya no es un delito. Y en cambio lo es. El problema es cómo identificarlo y procesarlo. La ley italiana, hasta la fecha, equipara la pornografía infantil virtual a la pornografía infantil real. Pero —subraya Di Noto— carece de eficacia: las fuerzas del orden tienen dificultades para intervenir a tiempo y el material sigue circulando. Se necesitan herramientas más incisivas, regulaciones actualizadas y capacitación constante : «Un paso crucial es la colaboración entre los gobiernos y las empresas tecnológicas para desarrollar una IA ética capaz de prevenir y bloquear la producción de pornografía infantil y material de desnudos profundos».
La amenaza, denuncia la Asociación, es doble: la velocidad con la que se producen, cifran y comparten estos contenidos, y la falta de herramientas regulatorias adecuadas. Las plataformas más utilizadas para la difusión de material son Signal (8 de cada 10 casos), Telegram, Viber, WhatsApp e Instagram. A menudo, son canales privados y cifrados, difíciles de monitorear y bloquear.
¿Cómo funciona la inteligencia artificial al servicio del abuso?Pero, ¿cómo funciona exactamente la Inteligencia Artificial al servicio del abuso? Mediante chatbots: programas capaces de simular conversaciones complejas, con las que la víctima ya no tiene que exponerse ni hacer ningún esfuerzo. De hecho, la víctima es atendida, desde el primer contacto, por estos programas, capaces de reconocer palabras clave, responder con empatía y preparar el terreno para el intercambio de material íntimo. El siguiente paso es la manipulación de imágenes: a partir de fotos tomadas en contextos cotidianos (deportes, escuela, juegos), la IA genera deepnudes, imágenes o vídeos falsos pero realistas en los que el menor aparece desnudo o sexualizado. Alrededor del 10% de los grupos monitoreados en línea han solicitado la producción de deepfakes, mientras que el 20% los genera a partir de imágenes inocentes.
Imágenes falsas, sí, pero con consecuencias reales. Los datos del Observatorio Global para la Lucha contra la Pedofilia (OSMOCOP), creado por la propia Meter, son alarmantes: solo en el primer semestre de 2025, casi 3.000 menores acabaron en contenido pornográfico infantil deepfake. Un problema urgente. Con el Dossier, Mater quiere "denunciar y generar una postura firme ante la sociedad, la política y la iglesia". Más del 60% de los adolescentes conocen los deepnudes , pero más de la mitad no son capaces de distinguirlos del contenido real. Sin embargo, los datos más significativos y esperanzadores se refieren a la percepción del riesgo: 9 de cada 10 adolescentes creen que la difusión de contenido deepfake supone un peligro concreto, y casi 7 de cada 10 estarían dispuestos a denunciarlo.
© Reproducción reservada
Etiquetas del artículo
Inteligencia artificialLuce