MENU

¿Qué es un deepfake?

La tecnología deepfake es un tipo de inteligencia artificial que puede difundir información errónea y desinformación. Manténgase informado para ayudar a proteger a los niños y jóvenes en línea.

Una madre sostiene una tableta rodeada de íconos de seguridad.

Orientación de un vistazo

Obtenga información y consejos rápidos sobre la tecnología deepfake.

Qué significa eso?

Los deepfakes son vídeos o grabaciones de audio que manipulan la apariencia de una persona. Luego parecen hacer o decir algo que nunca hicieron.

Más información sobre los deepfakes

¿Cuáles son los riesgos?

Los deepfakes tienen el potencial de difundir información o propaganda falsa. También pueden desempeñar un papel en el ciberacoso y las estafas.

Aprenda sobre los daños

Cómo proteger a los niños

Ayudar a los niños a desarrollar el pensamiento crítico manteniendo conversaciones periódicas es una parte clave para mantenerlos a salvo de cualquier daño.

Ver consejos de seguridad

¿Qué es un deepfake?

Los dos tipos principales de deepfakes son el vídeo y el audio. Los deepfakes de vídeo manipulan la apariencia de una persona, mientras que los deepfakes de audio manipulan su voz.

Los deepfakes de vídeo y audio suelen trabajar juntos para crear contenido engañoso. Las personas que crean este contenido falso pueden tener intenciones inocentes. Por ejemplo, podrían hacer un vídeo de una celebridad haciendo un baile divertido para hacer reír a la gente. Sin embargo, incluso las mejores intenciones pueden generar desinformación y confusión.

¿Qué son los vídeos deepfakes?

Los vídeos deepfakes son el tipo más común. Las personas que crean estos videos usan inteligencia artificial para reemplazar la cara o el cuerpo de alguien en secuencias de video existentes. Los ejemplos incluyen hacer que una celebridad diga algo controvertido o que un presentador de noticias informe historias inventadas.

En algunos videos deepfakes, un actor de doblaje imitará a la celebridad o el audio original para proporcionar la nueva voz. Alternativamente, el creador también podría utilizar la clonación de voz.

¿Qué es la clonación de voz?

La clonación de voz, o deepfakes de audio, manipula voces en lugar de videos para que suenen como otra persona. Una estafa cada vez más común utiliza la clonación de voz para apuntar a personas. Los padres pueden recibir una llamada frenética de su hijo que necesita dinero de inmediato para un propósito determinado. Estas estafas son extremadamente convincentes y han provocado pérdidas financieras.

Alguien también podría usar un audio deepfake para intimidar a otra persona. Por ejemplo, podrían imitar la voz de un compañero de clase para que parezca que ha dicho algo que no dijo.

Independientemente del tipo de deepfake, es importante recordar que alguien necesita utilizar una herramienta de inteligencia artificial para crearlo. Los creadores de deepfake no siempre lo tienen claro, pero la IA no genera automáticamente este contenido.

¿Cuáles son los daños potenciales?

Los deepfakes pueden afectar a las personas de diversas maneras y pueden dejar a niños y jóvenes expuestos a sufrir daños en línea.

Los niños y jóvenes pueden tener dificultades para reconocer vídeos y audios falsos, especialmente a medida que la tecnología se vuelve más sofisticada. Además, la mayor accesibilidad a las herramientas de inteligencia artificial podría significar que más personas puedan crear deepfakes. Por lo tanto, esto puede aumentar el alcance de los daños potenciales.

Información falsa y propaganda. 

Los usuarios en línea pueden utilizar deepfakes para:

  • difundir información falsa;
  • arruinar la confianza en las figuras públicas; o
  • manipular conversaciones sobre política y otros temas importantes.

Los niños todavía están desarrollando habilidades de pensamiento crítico, por lo que son particularmente vulnerables a creer este tipo de información.

Daño en la reputación

Algunos informes vinculan los deepfakes con la pornografía de venganza. En estos casos, el perpetrador agrega a la víctima a contenido comprometedor como videos o imágenes pornográficas.

El perpetrador podría entonces utilizar estos deepfakes para coaccionar a las víctimas. Esto podría incluir exigir pagos o imágenes reales para evitar que compartan los deepfakes más ampliamente. Conoce más sobre esta práctica con nuestra guía de sextorsión.

Ciberbullying, acoso y abuso

Los perpetradores también pueden usar deepfakes para intimidar a otros mediante la creación de videos destinados a burlarse, intimidarlos o avergonzarlos.

La naturaleza de los deepfakes podría hacer que el acoso sea más severo para la víctima. Podría incluso rayar en un comportamiento abusivo. Conozca cómo podría ser el abuso de niño a niño.

A Informe de la Fundación Internet Watch (IWF) de 2023 advirtió sobre el aumento de material de abuso sexual infantil (CSAM) generado por IA. Identificaron más de 20,000 de estas imágenes publicadas en uno Red oscura Foro CSAM durante un período de un mes. Consideraron que más de la mitad de ellos tenían “más probabilidades de ser delictivos”.

Si bien este número no incluye los deepfakes, la IWF dice que "el contenido de video realista en movimiento completo se convertirá en algo común". También señalan que ya existen videos cortos de CSAM generados por IA. "Estos sólo se volverán más realistas y más generalizados".

Pérdidas financieras y estafas

Algunas estafas de audio deepfake o clonación de voz hacen que las víctimas pierdan dinero. También se ha utilizado la imagen de figuras públicas para promover inversiones fraudulentas.

Un ejemplo es el YouTuber Mr Beast, que parecía ofrecer a sus seguidores nuevos iPhones. Sin embargo, en realidad no era él. YouTube es popular entre niños y adolescentes. Por lo tanto, los deepfakes que imitan a sus creadores favoritos pueden dejarlos expuestos a estas estafas.

Ejemplos de vídeos fraudulentos deepfake
Mostrar transcripción de video
Bueno, sigamos con la tecnología porque la inteligencia artificial está impulsando un auge del ciberdelito. Se espera que el coste alcance los 8 billones de dólares este año, más que la economía de Japón, según una estimación de expertos en ciberseguridad. El YouTuber más grande del mundo se encuentra entre aquellos cuya imagen de video ha sido manipulada por IA para promover una estafa, e incluso los presentadores de la BBC no son inmunes.

Mire esto: los residentes británicos ya no necesitan trabajar, así lo anunció nuestro invitado de hoy, Elon Musk. Quién dará a conocer un nuevo proyecto de inversión mientras continúa la conexión. Les contaré más sobre este proyecto que abre nuevas oportunidades para que los británicos obtengan un retorno de su inversión. En el nuevo proyecto se han invertido más de tres mil millones de dólares y actualmente ya está en funcionamiento.

Extraño, ¿no? Se parece a mí, suena como yo, se puede decir. Es un poco difícil entender esto, ¿no? Entonces hablé con Stephanie Hair, ella es una experta en tecnología independiente, debería decir.

Stephanie Hair, experta en tecnología independiente, es entrevistada sobre la dificultad de detectar deepfakes.

"A muchas personas les resulta muy difícil detectar estas cosas", dice Hair. "Y no eres el primero y no creo que vayas a ser el último, desafortunadamente, porque en realidad no hay nada que pueda impedir que esto suceda". En realidad, no existe ninguna regulación que haga rendir cuentas a nadie. No estoy seguro de quién te alegraría si quisieras demandar, por ejemplo. Ahora, entramos en Facebook y dijimos que debían eliminar esto, es falso y lo ha hecho... ellos lo han hecho, Meta lo ha hecho desde entonces. Sin embargo, hay muchos más videos falsos que señalan a los espectadores estafas y la preocupación es que las personas en realidad se están separando de su propio dinero porque creen que son genuinos y esta es la preocupación: ¿cómo distingue la gente entre lo que es real? ¿Y qué no lo es?``

"Honestamente, no estoy seguro de intentar decirlo por el tipo de limitaciones técnicas, porque pudimos ver incluso con su video que había ciertas cosas que no estaban del todo bien. Dejé muy claro que no era legítimo. Lo que realmente quieres hacer es preguntarte si suena demasiado bueno para ser verdad, probablemente lo sea. Si parece un poco raro, probablemente lo sea. Uh, no existe el almuerzo gratis.``

"Ciertamente no lo hay y he tuiteado o compartido un artículo sobre esto escrito por la BBC que te brinda los mejores consejos sobre cómo detectar videos profundamente falsos".

Cómo proteger a los niños de los daños de los deepfake

La mejor manera de mantener a los niños seguros en línea es brindándoles las herramientas para detectar daños y obtener apoyo. Así es como puedes ayudarlos a navegar por los deepfakes.

La comunicación abierta es clave

Inicie conversaciones sobre seguridad en línea temprano y con frecuencia. Discuta el concepto de deepfakes. Explique cómo las personas usan la IA para crearlos y los peligros potenciales que representan.

Desarrollar la alfabetización mediática de los niños.

Desarrolle las habilidades de pensamiento crítico de su hijo animándolo a cuestionar lo que ve y escucha en línea. Enséñeles a buscar pistas de que un vídeo podría ser falso. Los ejemplos incluyen movimientos antinaturales o inconsistencias en la calidad de audio y video.

APRENDE SOBRE LA INFORMACIÓN FALSA

Establecer límites y configuraciones

En la red móvil o de banda ancha de su hogar, configure controles parentales para limitar la exposición a contenido inapropiado. Haga lo mismo con las aplicaciones que usa su hijo. Luego, trabajen juntos para establecer límites sobre dónde y cuándo usar los dispositivos.

OBTENER MODELO DE ACUERDO FAMILIAR

Hablar de ciudadanía digital

Ayude a su hijo a desarrollar un comportamiento positivo en línea. Disuadirlos de crear o compartir contenido falso protagonizado por otras personas, incluso si solo lo hacen como una broma.

VER LOS MEJORES MODALES EN INTERNET

Muéstreles cómo verificar las fuentes.

Hable con su hijo sobre la importancia de verificar la información antes de compartirla. Anímelos a buscar fuentes confiables y sitios web de verificación de datos antes de creer cualquier cosa que vean en línea.

mantener las cosas privadas

Hable con sus hijos sobre la privacidad en línea y explíqueles la importancia de controlar su huella en línea. Recuerde que cualquiera puede utilizar imágenes públicas de su hijo para cualquier propósito. Por lo tanto, limite las imágenes que comparte de su hijo y enséñele a limitar las fotos que comparte de sí mismo.

Últimos artículos y guías sobre IA

Encuentre más soporte con deepfakes y otros tipos de contenido de IA con estos recursos.

¿Fue útil esto?
Cuéntanos cómo podemos mejorarlo