Asuntos de internet
Explora

¿Qué es un deepfake?

La tecnología deepfake es un tipo de inteligencia artificial que puede difundir información errónea y desinformación. Manténgase informado para ayudar a proteger a los niños y jóvenes en línea.

Una mujer usa una tableta con íconos de seguridad a su alrededor.

Orientación de un vistazo

Obtenga información y consejos rápidos sobre la tecnología deepfake.

Qué significa eso?

Los deepfakes son vídeos o grabaciones de audio que manipulan la apariencia de una persona. Luego parecen hacer o decir algo que nunca hicieron.

¿Cuáles son los riesgos?

Los deepfakes tienen el potencial de difundir información o propaganda falsa. También pueden desempeñar un papel en el ciberacoso y las estafas.

Cómo proteger a los niños

Ayudar a los niños a desarrollar el pensamiento crítico manteniendo conversaciones periódicas es una parte clave para mantenerlos a salvo de cualquier daño.

¿Qué es un deepfake?

Los dos tipos principales de deepfakes son el vídeo y el audio. Los deepfakes de vídeo manipulan la apariencia de una persona, mientras que los deepfakes de audio manipulan su voz.

Los deepfakes de vídeo y audio suelen trabajar juntos para crear contenido engañoso. Las personas que crean este contenido falso pueden tener intenciones inocentes. Por ejemplo, podrían hacer un vídeo de una celebridad haciendo un baile divertido para hacer reír a la gente. Sin embargo, incluso las mejores intenciones pueden generar desinformación y confusión.

¿Qué son los vídeos deepfakes?

Los vídeos deepfakes son el tipo más común. Las personas que crean estos videos usan inteligencia artificial para reemplazar la cara o el cuerpo de alguien en secuencias de video existentes. Los ejemplos incluyen hacer que una celebridad diga algo controvertido o que un presentador de noticias informe historias inventadas.

En algunos videos deepfakes, un actor de doblaje imitará a la celebridad o el audio original para proporcionar la nueva voz. Alternativamente, el creador también podría utilizar la clonación de voz.

¿Qué es la clonación de voz?

La clonación de voz, o deepfakes de audio, manipula voces en lugar de videos para que suenen como otra persona. Una estafa cada vez más común utiliza la clonación de voz para apuntar a personas. Los padres pueden recibir una llamada frenética de su hijo que necesita dinero de inmediato para un propósito determinado. Estas estafas son extremadamente convincentes y han provocado pérdidas financieras.

Alguien también podría usar un audio deepfake para intimidar a otra persona. Por ejemplo, podrían imitar la voz de un compañero de clase para que parezca que ha dicho algo que no dijo.

Independientemente del tipo de deepfake, es importante recordar que alguien necesita utilizar una herramienta de inteligencia artificial para crearlo. Los creadores de deepfake no siempre lo tienen claro, pero la IA no genera automáticamente este contenido.

¿Cuáles son los daños potenciales?

Los deepfakes pueden afectar a las personas de diversas maneras y pueden dejar a niños y jóvenes expuestos a sufrir daños en línea.

Los niños y jóvenes pueden tener dificultades para reconocer vídeos y audios falsos, especialmente a medida que la tecnología se vuelve más sofisticada. Además, la mayor accesibilidad a las herramientas de inteligencia artificial podría significar que más personas puedan crear deepfakes. Por lo tanto, esto puede aumentar el alcance de los daños potenciales.

Información falsa y propaganda.

Los usuarios en línea pueden utilizar deepfakes para:

  • difundir información falsa;
  • arruinar la confianza en las figuras públicas; o
  • manipular conversaciones sobre política y otros temas importantes.

Los niños todavía están desarrollando habilidades de pensamiento crítico, por lo que son particularmente vulnerables a creer este tipo de información.

Daño en la reputación

Algunos informes vinculan los deepfakes con la pornografía de venganza. En estos casos, el perpetrador agrega a la víctima a contenido comprometedor como videos o imágenes pornográficas.

El perpetrador podría entonces utilizar estos deepfakes para coaccionar a las víctimas. Esto podría incluir exigir pagos o imágenes reales para evitar que compartan los deepfakes más ampliamente.

Ciberbullying, acoso y abuso

Los perpetradores también pueden usar deepfakes para intimidar a otros mediante la creación de videos destinados a burlarse, intimidarlos o avergonzarlos.

La naturaleza de los deepfakes podría hacer que el acoso sea más severo para la víctima. Podría incluso rayar en un comportamiento abusivo.

A Informe de la Fundación Internet Watch (IWF) de 2023 advirtió sobre el aumento de material de abuso sexual infantil (CSAM) generado por IA. Identificaron más de 20,000 de estas imágenes publicadas en uno Red oscura Foro CSAM durante un período de un mes. Consideraron que más de la mitad de ellos tenían “más probabilidades de ser delictivos”.

Si bien este número no incluye los deepfakes, la IWF dice que "el contenido de video realista en movimiento completo se convertirá en algo común". También señalan que ya existen videos cortos de CSAM generados por IA. "Estos sólo se volverán más realistas y más generalizados".

Pérdidas financieras y estafas

Algunas estafas de audio deepfake o clonación de voz hacen que las víctimas pierdan dinero. También se ha utilizado la imagen de figuras públicas para promover inversiones fraudulentas.

Un ejemplo es el YouTuber Mr Beast, que parecía ofrecer a sus seguidores nuevos iPhones. Sin embargo, en realidad no era él. YouTube es popular entre niños y adolescentes. Por lo tanto, los deepfakes que imitan a sus creadores favoritos pueden dejarlos expuestos a estas estafas.

Bueno, sigamos con la tecnología, porque la inteligencia artificial está impulsando un auge de los delitos cibernéticos. Se espera que el coste alcance los 8 billones de dólares este año, más que la economía de Japón según una estimación de los expertos en seguridad cibernética. El YouTuber más grande del mundo se encuentra entre los que han visto su imagen de vídeo manipulada por la IA para promover una estafa, e incluso los presentadores de la BBC no son inmunes. Echa un vistazo a esto: Los residentes británicos ya no necesitan trabajar, ese es el anuncio que ha hecho nuestro invitado de hoy, Elon Musk. Quien revelará un nuevo proyecto de inversión mientras se realiza la conexión. Te contaré más sobre este proyecto que abre nuevas oportunidades para que los británicos reciban un retorno de la inversión. Se han invertido más de tres mil millones de dólares en el nuevo proyecto, y ya está en marcha en este momento.

Es extraño, ¿no? Parece que soy yo, suena como soy yo, dirán. Es un poco difícil entenderlo, ¿no? Así que hablé con Stephanie Hair, que es una experta independiente en tecnología, debería decir.

Stephanie Hair, experta en tecnología independiente, es entrevistada sobre la dificultad de detectar deepfakes.

“A muchas personas les resulta muy difícil detectar estas cosas”, dice Hair. “Y no eres el primero y no creo que vayas a ser el último, desafortunadamente, porque no hay nada que realmente impida que esto suceda. Realmente no hay ninguna regulación que obligue a nadie a rendir cuentas. No estoy seguro de quién te alegraría si quisieras demandar, por ejemplo. Ahora, entramos en Facebook y dijimos que tenían que eliminar esto, que era falso y lo han hecho... lo han hecho, Meta lo ha hecho desde entonces. Sin embargo, hay muchos más videos falsos que señalan a los espectadores a estafas y la preocupación es que la gente en realidad está desprendiéndose de su propio dinero porque creen que son genuinos y esta es la preocupación, ¿cómo distingue la gente lo que es real de lo que no lo es?”

“La verdad es que no estoy seguro de que se pueda decir a partir de las limitaciones técnicas, porque pudimos ver incluso con tu vídeo que había ciertas cosas que no estaban del todo bien. Dejé muy claro que no era legítimo. Lo que realmente quieres hacer es preguntarte si suena demasiado bueno para ser verdad, probablemente lo sea. Si parece un poco raro, probablemente lo sea. Eh, no existe nada gratis”.

“Ciertamente no lo hay, y he tuiteado o compartido un artículo sobre esto escrito por la BBC que brinda los mejores consejos sobre cómo detectar videos deepfake”.

Cerrar Cerrar video

Cómo proteger a los niños de los daños de los deepfake

La mejor manera de mantener seguros a los niños en línea es brindándoles las herramientas para detectar los peligros y obtener ayuda. Aquí le mostramos cómo puede ayudarlos a sortear los deepfakes.

La comunicación abierta es clave

Inicie conversaciones sobre seguridad en línea temprano y con frecuencia. Discuta el concepto de deepfakes. Explique cómo las personas usan la IA para crearlos y los peligros potenciales que representan.

Desarrollar la alfabetización mediática de los niños.

Desarrolle las habilidades de pensamiento crítico de su hijo animándolo a cuestionar lo que ve y escucha en línea. Enséñeles a buscar pistas de que un vídeo podría ser falso. Los ejemplos incluyen movimientos antinaturales o inconsistencias en la calidad de audio y video.

Establecer límites y configuraciones

En la red móvil o de banda ancha de su hogar, configure controles parentales para limitar la exposición a contenido inapropiado. Haga lo mismo con las aplicaciones que usa su hijo. Luego, trabajen juntos para establecer límites sobre dónde y cuándo usar los dispositivos.

Hablar de ciudadanía digital

Ayude a su hijo a desarrollar un comportamiento positivo en línea. Disuadirlos de crear o compartir contenido falso protagonizado por otras personas, incluso si solo lo hacen como una broma.

Muéstreles cómo verificar las fuentes.

Hable con su hijo sobre la importancia de verificar la información antes de compartirla. Anímelos a buscar fuentes confiables y sitios web de verificación de datos antes de creer cualquier cosa que vean en línea.

mantener las cosas privadas

Hable con sus hijos sobre la privacidad en línea y explíqueles la importancia de controlar su huella en línea. Recuerde que cualquiera puede utilizar imágenes públicas de su hijo para cualquier propósito. Por lo tanto, limite las imágenes que comparte de su hijo y enséñele a limitar las fotos que comparte de sí mismo.

Guía de deepfake para padres

Últimos artículos sobre IA

Encuentre más soporte con deepfakes y otros tipos de contenido de IA con estos recursos.