MENU

¿Qué es la IA desnuda? Orientación para padres y cuidadores

Una niña sentada con su teléfono con expresión triste.

La inteligencia artificial sigue aumentando en capacidad y tecnología. Undress AI es un ejemplo que podría dejar a los jóvenes expuestos a sufrir daños.

Aprenda qué es para poder proteger mejor a su hijo en línea.

¿Qué es 'desnudar a la IA'?

Undress AI describe un tipo de herramienta que utiliza inteligencia artificial para quitar la ropa de personas en imágenes.

Si bien el funcionamiento de cada aplicación o sitio web puede variar, todos ofrecen este servicio similar. Aunque la imagen manipulada en realidad no muestra el cuerpo desnudo real de la víctima, puede implicarlo.

Los perpetradores que utilizan herramientas de inteligencia artificial para desnudarse podrían quedarse con las imágenes o compartirlas más ampliamente. Podrían usar estas imágenes para coerción sexual (sextorsión), intimidación/abuso o como una forma de pornografía de venganza.

Los niños y jóvenes se enfrentan a daños adicionales si alguien los "desnuda" utilizando esta tecnología. A informe de la Fundación Internet Watch encontró más de 11,000 imágenes de niños potencialmente criminales generadas por IA en un foro de la web oscura dedicado al material de abuso sexual infantil (CSAM). Consideraron criminales alrededor de 3,000 imágenes.

La IWF dijo que también encontró "muchos ejemplos de imágenes generadas por IA que muestran víctimas conocidas y niños famosos". La IA generativa sólo puede crear imágenes convincentes si aprende de material fuente preciso. Básicamente, las herramientas de inteligencia artificial que generan CSAM tendrían que aprender de imágenes reales que muestren abuso infantil.

Riesgos a tener en cuenta

Las herramientas de inteligencia artificial de Undress utilizan un lenguaje sugerente para atraer a los usuarios. Como tal, es más probable que los niños sigan su curiosidad basándose en este lenguaje.

Es posible que los niños y los jóvenes aún no comprendan la ley. Como tal, podrían tener dificultades para separar las herramientas dañinas de aquellas que promueven la diversión inofensiva.

Contenido y comportamiento inapropiados

La curiosidad y la novedad de una herramienta de inteligencia artificial para desnudar a los niños podría exponerlos a contenido inapropiado. Debido a que no muestra una imagen de desnudo "real", podrían pensar que está bien usar estas herramientas. Si luego comparten la imagen con sus amigos "para reírse", probablemente estén infringiendo la ley sin saberlo.

Sin la intervención de un padre o cuidador, es posible que continúen con el comportamiento, incluso si daña a otros.

Riesgos de privacidad y seguridad

Muchas herramientas legítimas de IA generativa requieren pago o suscripción para crear imágenes. Por lo tanto, si un sitio web de deepnude es gratuito, podría producir imágenes de baja calidad o tener una seguridad laxa. Si un niño sube una imagen vestida de sí mismo o de un amigo, el sitio o la aplicación podrían hacer un mal uso de ella. Esto incluye el 'desnudo profundo' que crea.

Es poco probable que los niños que utilizan estas herramientas lean los Términos de servicio o la Política de privacidad, por lo que corren el riesgo de no entenderlos.

Creación de material de abuso sexual infantil (CSAM)

La IWF también informó que los casos de El CSAM 'autogenerado' que circula en línea aumentó un 417% de 2019 a 2022. Tenga en cuenta que el término "autogenerado" es imperfecto ya que, en la mayoría de los casos, los abusadores obligan a los niños a crear estas imágenes.

Sin embargo, con el uso de IA desnuda, los niños podrían, sin saberlo, crear CSAM generado por IA. Si suben una foto de ellos mismos o de otro niño vestidos, alguien podría "desnudar" esa imagen y compartirla más ampliamente.

Ciberbullying, abuso y acoso

Al igual que otros tipos de deepfakes, las personas pueden usar herramientas de inteligencia artificial para desnudarse o 'deepnudes' para intimidar a otros. Esto podría incluir afirmar que un compañero envió una imagen de sí mismo desnudo cuando no lo hizo. O podría incluir el uso de IA para crear un desnudo con características de las que luego se burlan los intimidadores.

Es importante recordar que compartir imágenes de compañeros desnudos es ilegal y abusivo.

¿Qué tan extendida está la tecnología 'deepnude'?

Las investigaciones muestran que el uso de este tipo de herramientas de inteligencia artificial está aumentando, especialmente para quitar la ropa a las víctimas femeninas.

Un sitio de inteligencia artificial para desnudarse dice que su tecnología "no estaba destinada a ser utilizada con sujetos masculinos". Esto se debe a que entrenaron la herramienta utilizando imágenes femeninas, lo cual es cierto para la mayoría de estos tipos de herramientas de IA. Con los CSAM generados por IA que investigó la Internet Watch Foundation, el 99.6% de ellos también presentaban a niñas.

Investigación de Graphika destacó un aumento del 2000% en el spam de enlaces de referencia para servicios de inteligencia artificial para desnudarse en 2023. El informe también encontró que 34 de estos proveedores recibieron más de 24 millones de visitantes únicos en sus sitios web en un mes. Predicen “más casos de daño en línea”, incluida la sextorsión y el CSAM.

Es probable que los perpetradores sigan apuntando a niñas y mujeres en lugar de niños y hombres, especialmente si estas herramientas aprenden principalmente de imágenes femeninas.

¿Qué dice la ley del Reino Unido?

Hasta hace poco, quienes creaban imágenes ultrafalsas sexualmente explícitas no infringían la ley a menos que las imágenes fueran de niños.

Sin embargo, el Ministerio de Justicia anunció una nueva ley esta semana eso cambiará esto. Según la nueva ley, quienes creen imágenes falsas sexualmente explícitas de adultos sin su consentimiento se enfrentarán a procesamiento. Los condenados también se enfrentarán a una “multa ilimitada”.

Esto contradice una declaración hecha a principios de 2024. Dijo que la creación de una imagen íntima deepfake “no era lo suficientemente dañina o culpable como para constituir un delito penal”.

Tan recientemente como el año pasado, los perpetradores podrían crear y comparte estas imágenes (de adultos) sin infringir la ley. sin embargo, el Ley de seguridad en línea prohibió compartir imágenes íntimas generadas por IA sin consentimiento en enero de 2024.

Generalmente, esta ley debería cubrir cualquier imagen que sea de naturaleza sexual. Esto incluye aquellos que presentan sujetos desnudos o parcialmente desnudos.

Sin embargo, una cosa a tener en cuenta es que esta ley se basa en la intención de causar daño. Por lo tanto, una persona que crea un deepfake sexualmente explícito debe hacerlo para humillar o dañar a la víctima. El problema con esto es que es bastante difícil demostrar la intención. Como tal, podría ser difícil procesar a las partes que crean deepfakes sexualmente explícitos.

Cómo mantener a los niños a salvo de la IA que los desnuda

Ya sea que le preocupe que su hijo use herramientas de inteligencia artificial para desvestirlo o se convierta en una víctima, aquí hay algunas acciones que puede tomar para protegerlo.

tener la primera conversación

Más de una cuarta parte de los niños del Reino Unido afirman haber visto pornografía a los 11 años. Uno de cada diez dice que vio pornografía por primera vez a los 9 años. La curiosidad podría llevar a los niños a buscar también herramientas de inteligencia artificial para desnudarse. Entonces, antes de llegar a ese punto, es importante hablar sobre contenido apropiado, relaciones positivas y comportamientos saludables.

VER GUÍAS DE CONVERSACIÓN PORNO

Establecer límites de sitios web y aplicaciones

Bloquee sitios web y establezca restricciones de contenido en redes móviles y de banda ancha, así como en dispositivos y aplicaciones. Esto reducirá la posibilidad de que se topen con contenido inapropiado mientras exploran en línea. Acceder a estos sitios web puede ser parte de una conversación más amplia con usted.

ELIGE UNA GUÍA

Fomentar la resiliencia digital de los niños

La resiliencia digital es una habilidad que los niños deben desarrollar. Significa que pueden identificar posibles daños en línea y tomar medidas si es necesario. Saben cómo denunciar, bloquear y pensar críticamente sobre el contenido que encuentran. Esto incluye saber cuándo necesitan ayuda de sus padres, cuidadores u otro adulto de confianza.

VER KIT DE HERRAMIENTAS DE RESILIENCIA DIGITAL

Recursos para mayor soporte

Obtenga más información sobre la inteligencia artificial y encuentre recursos para ayudar a las víctimas de la IA desnuda.

¿Fue útil esto?
Cuéntanos cómo podemos mejorarlo

Mensajes recientes