Asuntos de internet
Búsqueda

Un año después: las herramientas de "desnudez" siguen siendo de fácil acceso, e igualmente dañinas

Katherine Lai | 18 de diciembre, 2025
Una adolescente está triste mientras mira su teléfono inteligente.

Hace un año, Internet Matters publicó La nueva cara del abuso digital, un informe que explora la proliferación de deepfakes de desnudos (imágenes o vídeos sexualmente explícitos generados por IA) y las experiencias que tienen los niños con ellos.

En ese momento, nuestro informe destacó varias cuestiones clave en torno a los deepfakes de desnudos:

  1. Las herramientas 'nudificantes' están ampliamente disponibles en línea y aparecen en los resultados de los principales motores de búsqueda, además de ser económicas y fáciles de usar.
  2. La gran mayoría de deepfakes desnudos presentan mujeres y niñas.
  3. El 13% de los niños ya habían visto una deepfake de desnudos, lo que generó miedo y ansiedad entre ellos.

A raíz de esta investigación, hemos estado pidiendo al Gobierno que prohíba las aplicaciones y sitios web que "desnudan" en el Reino Unido.

El año pasado, el gobierno del Reino Unido tomó algunas medidas para reducir la circulación de deepfakes de desnudos. Esto incluye la publicación Legislación para tipificar como delito penal la creación de deepfakes sexualmente explícitos sin consentimiento e introducir nuevos poderes para Permitir que los modelos de IA sean examinados para garantizar que se implementen las salvaguardas para evitar que generen o proliferen material de abuso sexual infantil. Sin embargo, esta investigación demuestra por qué se necesitan más medidas.

En este blog destacamos cómo, un año después, una nueva investigación revela un panorama similar: las herramientas de "desnudez" siguen estando ampliamente disponibles, son económicas y se dirigen mayoritariamente a los cuerpos femeninos. Existe una necesidad urgente de medidas de protección más estrictas.

Fondo

Entendiendo los deepfakes de desnudos

Deepfakes Se generan mediante herramientas de inteligencia artificial (IA) y son imágenes, vídeos o audios falsos que parecen y parecen contenido genuino.

Deepfakes de desnudos Son un tipo específico de deepfake, en el que una imagen o un vídeo se manipula o genera para quitarle (total o parcialmente) la ropa a alguien usando sus rasgos y aplicándolos a otro cuerpo. Se estima que el 98 % de los vídeos e imágenes deepfake son imágenes sexuales no consensuadas y Casi todos los deepfakes pornográficos representan mujeres.

La IA también se está utilizando para crear material de abuso sexual infantil (CSAM). Datos de la Internet Watch Foundation (IWF) descubre que los informes de abuso sexual infantil generado por IA se han más que duplicado en el último año, aumentando de 199 en 2024 a 426 en 2025.

Los deepfakes que presentan imágenes sexuales de menores son ilegales en el Reino Unido y se clasifican como abuso sexual infantil. La posesión de cualquier tipo de abuso sexual infantil es un delito penal.

Según la Ley de Seguridad en Línea (2023), compartir una imagen íntima deepfake no consentida de un adulto constituye un delito. El Gobierno también ha prometido nuevas leyes, como se ha indicado anteriormente, para frenar la creación de deepfakes de desnudos no consentidos.

Sin embargo, las herramientas de "desnudez" para crear estas imágenes o vídeos seguirán siendo legales de utilizar en el Reino Unido a partir de noviembre de 2025.

Realizamos una serie de pruebas controladas en noviembre de 2025. Las búsquedas se realizaron en una computadora de escritorio utilizando una conexión de banda ancha.

Nos centramos en los tres principales motores de búsqueda que analizamos en nuestro informe de 2024: Google, Bing y Yahoo. Introducimos tres frases específicas: «desnudar a la IA», «desvestir a la IA» y «desvestir a la IA», y analizamos principalmente los resultados de búsqueda de la primera página (sin contar anuncios ni resultados de búsqueda patrocinados).

Se habilitaron los controles parentales a nivel de banda ancha para garantizar un filtrado uniforme en todas las búsquedas. Sin embargo, los filtros de búsqueda individuales se configuraron como difusos o moderados. Esto nos permitió observar si aún podía aparecer material potencialmente peligroso o inapropiado en un entorno con filtros parciales, lo que refleja una experiencia de usuario más típica.

Hallazgos

Las herramientas y sitios web que buscan "desnudar" aún están ampliamente disponibles

En los tres principales motores de búsqueda utilizados en la investigación, 21 sitios de "nudificación" distintos aparecieron en la primera página de resultados de búsqueda, lo que demuestra cuán visibles y accesibles siguen siendo estas herramientas.

Al buscar "nudify AI", ninguno de los principales resultados en Google, Bing O Yahoo enlazaba directamente a herramientas o sitios web de "nudificación". En cambio, el término generó artículos que hablaban de herramientas de "nudificación", lo que indica un creciente conocimiento de estas plataformas.

Sin embargo, otros términos de búsqueda sí devolvieron enlaces directos a sitios web de "nudificación". La siguiente tabla muestra el número de sitios web de "nudificación" que aparecieron en la primera página de resultados de cada motor de búsqueda principal.

Término de búsqueda Google (10 resultados en la primera página) Bing (10 resultados de la primera página) Yahoo (7 resultados en la primera página)
“desvestir a la IA” 8 8 7
“desnudar a la IA” 9 2 2
Figura 1: Tabla de resultados de búsqueda
Imagen comparativa de los resultados de búsqueda de 'declothing AI' en Google. Bing y los motores de búsqueda Yahoo.
Figura 2: Comparación de Google, Bing Resultados de búsqueda en Yahoo para "AI desvestir". Haz clic para ver la imagen completa.

Los sitios web que "desnudan" representan cuerpos femeninos de forma desproporcionada

De los 21 sitios individuales de "nudificación" visitados, alrededor de la mitad (10) tenían imágenes que representaban a mujeres sexualizadas y desnudas en su página de inicio.

Figura 3: Instrucciones de la página de inicio sobre cómo utilizar la herramienta

El año pasado informamos que muchas herramientas de desnudez no funcionan con imágenes de niños y hombres. Un sitio web de desnudez lo confirmó en sus preguntas frecuentes, indicando que su modelo estaba diseñado específicamente para fotos de mujeres.

Algunas herramientas ofrecen a los usuarios opciones para determinar las características corporales de su deepfake de desnudo generado por IA. Cabe destacar que muchos de los principales sitios que investigamos ofrecían la opción de "elegir" el tamaño del pecho, lo que demuestra una vez más que estas herramientas están diseñadas pensando en los cuerpos femeninos.

Captura de pantalla de la aplicación de inteligencia artificial para desvestirse dirigida a mujeres.
Figura 4: Ejemplo de herramientas de nudificación con funciones para ajustar el tamaño de los senos y el tipo de cuerpo

Algunos sitios web permiten a los usuarios escribir indicaciones para su imagen generada por IA en un cuadro de texto. Este fue el caso de 4 de los 21 sitios web de desnudos que analizamos. En uno de ellos, la indicación predeterminada era "Una chica desnuda sin sostén".

Captura de pantalla de la aplicación de inteligencia artificial para desvestirse dirigida a mujeres.
Figura 5: Mensaje de texto predeterminado para la herramienta de nudificación

El entrenamiento de estos modelos con cuerpos femeninos y su uso para generar imágenes sexuales no consensuadas de mujeres y niñas es producto de la misoginia y perpetúa el daño de género. Si bien algunos sitios web incluyen declaraciones en sus preguntas frecuentes que sugieren que se requiere el consentimiento para usar la imagen de otra persona, no encontramos ningún mecanismo dentro del proceso de publicación para verificarlo o exigirlo. En la práctica, esto solo crea la ilusión de consentimiento, en lugar de la protección real que exige la legislación del Reino Unido.

Los efectos de esto son visibles en las experiencias de los niños. Nuestra investigación previa reveló que el 38% de las adolescentes, en comparación con el 27% de los adolescentes, estaban totalmente de acuerdo en que compartir un desnudo deepfake de ellas sería peor que un desnudo real. Esto sugiere el daño psicológico desproporcionado y el miedo al daño reputacional que enfrentan las niñas. Este desequilibrio refleja patrones más amplios de violencia de género, donde Las mujeres y las niñas no sólo son atacadas con mayor frecuencia, sino que también sufren consecuencias sociales más profundas. (Ringrose y Regehr, 2023).

Las herramientas 'nudificantes' siguen siendo baratas y fáciles de usar

Los sitios de "desnudez" también son económicos, y muchos ofrecen un cierto número de generaciones de imágenes gratuitas o planes de precios generosos con precios tan bajos como 10 centavos por generar una imagen. Sus interfaces también son fáciles de navegar con un simple clic y botón de carga.

Captura de pantalla de los planes de cuenta de la herramienta nudifying.
Figura 6: Plan de precios del sitio web de nudificación que aparece en los primeros resultados de búsqueda

La Ley de Seguridad en Línea no protege a los niños del contenido pornográfico

Según la Ley de Seguridad en Línea (2023), las aplicaciones y sitios web que muestran desnudos se incluyen en las regulaciones de la Categoría 5. Estas normas exigen que cualquier servicio que ofrezca contenido pornográfico implemente medidas de verificación de edad altamente efectivas para que los niños no puedan acceder al servicio.

En noviembre de 2025, Ofcom multó a Itai Tech Ltd. – una empresa que opera y aloja un sitio de “desnudez” – £50,000 por no cumplir con las obligaciones de garantía de edad para proteger a los niños de la pornografía en línea.

Sin embargo, ninguno de los 21 sitios que analizamos requería que los usuarios verificaran su edad antes de ver el sitio.

Esto es preocupante, dado que la intención de muchos de estos servicios es inequívoca. Un sitio se promociona como un "Espectáculo de Striptease con un Solo Clic (Digital)", mientras que otro anima a los usuarios a "Experimentar el poder de la IA y satisfacer plenamente sus fantasías sexuales". A pesar de este posicionamiento explícito, los menores aún pueden acceder a estas plataformas con facilidad, lo que los expone a material que Ofcom ha clasificado como pornografía.

La ley debe ir más allá

Un año después de nuestro informe original, la realidad es cruda: las herramientas utilizadas para generar deepfakes de desnudos siguen estando fácilmente disponibles y a la vista de todos, perpetuando la misoginia y la violencia contra las mujeres y las niñas. Esto es quizás aún más preocupante ahora que hace un año, dada la entrada en vigor de las medidas de la Ley de Seguridad en Línea, que deberían proteger a los niños del acceso a estos sitios.

Sin embargo, esta investigación muestra que la legislación actual no es adecuada para su propósito. Por eso el Gobierno debe prohibir las herramientas 'nudizantes' en el Reino Unido..

Seguí leyendo

Acerca del autor.

Katherine Lai

Katherine Lai

Responsable de investigación en Internet Matters
Una familia se sienta en su sofá, sosteniendo varios dispositivos y un perro sentado a sus pies.

Obtenga asesoramiento personalizado y apoyo continuo

El primer paso para garantizar la seguridad en línea de su hijo es obtener la orientación adecuada. Lo hemos hecho fácil con "My Family's Digital Toolkit".