Resum
- Un nuevo informe de Internet Matters insta al nuevo Gobierno a acabar con la "epidemia" de imágenes sexuales generadas por inteligencia artificial después de que una encuesta revelara que el 13% de los adolescentes han tenido una experiencia con deepfakes de desnudos.
- La posibilidad de un abuso incontrolado de desnudos en deepfakes ha sembrado miedo en la vida de muchos niños; más de la mitad de los adolescentes (55%) creen que sería peor que se creara y compartiera un desnudo en deepfake de ellos que una imagen real.
- Internet Matters pide la prohibición de las herramientas de 'desnudez', ya que el informe advierte que es simplemente demasiado fácil crear deepfakes de desnudos en línea.
- Las reformas recomendadas al currículo escolar deberían incluir enseñar a los niños cómo identificar deepfakes y utilizar la tecnología de inteligencia artificial de manera responsable.
Internet Matters, la principal organización sin fines de lucro de Gran Bretaña que apoya la seguridad en línea de los niños, publica hoy (martes 22 de octubre) un nuevo informe, “La nueva cara del abuso digital: las experiencias de los niños con desnudos falsos”El informe estima que cuatro niños en cada clase de treinta han tenido alguna experiencia con "deepfakes desnudos" y pide al Gobierno que introduzca una nueva legislación para abordar el crecimiento de desnudos falsos de jóvenes, en particular niñas, mediante IA generativa (GenAI), prohibiendo las llamadas aplicaciones de "desnudez".
El informe explica cómo GenAI ha logrado que sea rápido, sencillo y barato producir imágenes explícitas no consensuadas de personas comunes, incluidos niños. Sostiene que la legislación actual no está a la altura; los modelos de IA utilizados para generar imágenes sexuales de niños actualmente no son ilegales en el Reino Unido, a pesar de que la posesión de una imagen sexual deepfake de un niño es un delito penal.
Si bien la tecnología deepfake puede utilizarse con fines positivos, como la educación o la capacitación, la evidencia sugiere que la mayoría de las deepfakes se crean para causar daño, incluso mediante abuso sexual, explotación sexual con fines económicos, desinformación, estafas o fraudes. La creación de imágenes falsas de desnudos, que en el pasado se dirigía principalmente a celebridades femeninas, es ahora más accesible y afecta a los niños, siendo las niñas las más propensas a ser el objetivo.
El informe de Internet Matters de hoy destaca la facilidad y la amplia disponibilidad de las herramientas de "desnudez" en línea. Se estima que el 99 % de los deepfakes de desnudos presentan a niñas y mujeres, y los modelos "desnudos" a menudo no funcionan con imágenes de niños y hombres. Las imágenes sexuales generadas por IA que presentan a niños se han utilizado para facilitar el abuso sexual entre niños, el abuso sexual perpetrado por adultos y la sextorsión, y pueden afectar profundamente a las víctimas, lo que lleva a la aparición de ansiedad, depresión y pensamientos suicidas.
Los adolescentes han utilizado aplicaciones de "desnudez" para generar imágenes sexualmente explícitas de sus compañeras de clase, y a menudo las han compartido en chats grupales y redes sociales. Las chicas dijeron a Internet Matters que se sentirían horrorizadas y avergonzadas y temerían que un maestro o un padre pudieran pensar que eran genuinas.
El informe de hoy detalla una encuesta representativa a nivel nacional de Internet Matters a 2,000 padres de niños de entre 3 y 17 años y a 1,000 niños de entre 9 y 17 años en el Reino Unido, realizada por Opinium en junio de 2024. La encuesta muestra lo siguiente:
- Un número significativo de niños tiene algún tipo de experiencia con un deepfake de desnudos. En general, el 13 % de los niños ha tenido una experiencia con un deepfake de desnudos (incluyendo enviar o recibir uno, encontrarse con un deepfake de desnudos en línea, usar una aplicación de desnudos o que alguien que conozcan haya usado una aplicación de desnudos). Esto significa que alrededor de medio millón (529,632 4) de adolescentes en el Reino Unido, o 30 adolescentes en una clase de XNUMX, han tenido una experiencia con un deepfake de desnudos.
- Los adolescentes varones (18%) tienen el doble de probabilidades que las adolescentes mujeres (9%) de informar una experiencia con un desnudo deepfake, sin embargo, es más probable que los varones sean los creadores de desnudos deepfake, y es más probable que las niñas sean las víctimas.
- Los niños y los niños vulnerables tienen más probabilidades de haber visto un deepfake de desnudos. El 10 % de los niños de entre 13 y 17 años se han topado con un deepfake de desnudos en Internet, en comparación con el 2 % de las niñas de la misma edad. Una cuarta parte de los niños vulnerables han tenido una experiencia con un deepfake de desnudos, en comparación con el 11 % de los niños no vulnerables.
- Los adolescentes consideran que el abuso de desnudos en deepfakes es peor que el abuso de imágenes que incluyen fotos reales. Más de la mitad de los adolescentes (55 %) creen que sería peor que se creara y compartiera un desnudo en deepfakes de ellos que una imagen real.
- La mayoría de las familias tienen poco o ningún conocimiento sobre los deepfakes: casi dos tercios de los niños (61%) y casi la mitad de los padres (45%) dicen que no conocen o no entienden el término "deepfake".
- Las familias quieren que el Gobierno y las empresas tecnológicas hagan más para abordar los deepfakes de desnudos. El 84% de los adolescentes y el 80% de los padres creen que las herramientas de nudificación deberían prohibirse para todos en el Reino Unido, incluidos los adultos.
- Las familias también coinciden en que se necesita más educación sobre el tema de los deepfakes. Solo al 11% de los adolescentes se les ha enseñado sobre los deepfakes en la escuela, y solo al 6% sobre los deepfakes con desnudos. La abrumadora mayoría de los adolescentes (92%) y los padres (88%) creen que se debería enseñar a los niños sobre los riesgos de los deepfakes en la escuela.
El informe aboga por la adopción de nuevas leyes y de medidas por parte de la industria para proteger a los niños de los abusos sexuales en deepfake y sostiene que no se puede esperar que los padres y las escuelas protejan a los niños por sí solos. Exige que se tomen medidas, entre ellas:
- El Gobierno debe prohibir las herramientas de desnudez como prioridad en este Parlamento y fortalecer la Ley de Seguridad en Línea con códigos de prácticas sobre daños de género y abuso entre niños.
- Las empresas tecnológicas tomarán medidas más firmes eliminando el acceso a herramientas de desnudos en los motores de búsqueda y las tiendas de aplicaciones.
- El currículo nacional debe actualizarse para integrar la enseñanza de la alfabetización mediática crítica.
Para coincidir con el informe de hoy y apoyarlo, Internet Matters está lanzando Nuevos recursos que incluyen consejos de expertos para padres sobre cómo proteger a sus hijos de las falsificaciones profundas.
Carolyn Bunting MBE, codirectora ejecutiva de Internet Matters, dijo:
“La inteligencia artificial ha hecho posible producir deepfakes sumamente realistas de niños con solo pulsar unos botones. Los deepfakes de desnudos son una profunda invasión de la autonomía y la dignidad corporales, y su impacto puede ser devastador. Dado que las herramientas de desnudez se centran principalmente en las mujeres, están teniendo un impacto desproporcionado en las niñas.
“Los niños nos han contado el miedo que tienen de que esto les pueda pasar sin que se den cuenta y por personas que no conocen. Ven el abuso de imágenes deepfake como una posible violación mayor porque está fuera de su control.
“El abuso de imágenes deepfake puede ocurrirle a cualquiera, en cualquier momento. Los padres no deberían quedarse solos frente a este preocupante problema. Es hora de que el Gobierno y la industria tomen medidas para prevenirlo, tomando medidas enérgicas contra las empresas que producen y promueven estas herramientas que se utilizan para abusar de los niños”.