MENU

¿Qué es la IA generativa (Gen-AI) y cómo puede afectar el bienestar de los niños?

Vea el #Take20Talk completo sobre cómo la inteligencia artificial podría afectar el bienestar de los niños.

Este mes, participamos en #Take20Talk de la Anti-Bullying Alliance.

Obtenga más información sobre el uso de la IA generativa por parte de los niños y sus impactos antes de nuestra próxima investigación sobre la IA generativa y la educación.

Estuvimos encantados de participar en una #Take20Talk con Anti-Bullying Alliance. La charla nos brindó la oportunidad de discutir el impacto de la IA generativa en el bienestar digital de los niños.

En la sesión, discutimos el uso de la IA generativa por parte de los niños, los beneficios y riesgos que presenta y el panorama político actual que rodea a esta tecnología en evolución. Esta presentación se adelanta a nuestra próxima investigación sobre IA generativa y educación, que se publicará a principios del próximo año.

¿Qué es la IA generativa?

La IA generativa (Gen-AI) es una forma de inteligencia artificial que produce texto, imágenes y audio originales. Los modelos Gen-AI se entrenan en conjuntos de datos utilizados para crear contenido nuevo, basándose en patrones aprendidos durante el proceso de capacitación.

Usos de la generación AI Procesamiento del lenguaje natural (PNL). Se trata de una rama de la IA que “se centra en ayudar a las computadoras a comprender, interpretar y generar el lenguaje humano”. Estas tecnologías ofrecen muchas oportunidades interesantes para los niños. Sin embargo, como ocurre con todas las nuevas tecnologías, además de los beneficios, también existen riesgos potenciales que hay que conocer.

¿Cuáles son las oportunidades de Gen-AI?

Experiencias de aprendizaje personalizadas

La IA generativa puede ayudar a los profesores a personalizar sus planes de lecciones y materiales para satisfacer mejor las diferentes necesidades de aprendizaje de sus estudiantes. Por lo tanto, esto garantiza una experiencia de aprendizaje más atractiva e inclusiva para aulas diversas.

De hecho, los profesores ya utilizan herramientas de IA generativa para brindar apoyo personalizado a alumnos con necesidades educativas especiales y discapacidades (SEND).

Apoyo a través de líneas de ayuda

Los niños pueden beneficiarse de las líneas de ayuda que utilizan IA generativa. Las líneas de ayuda de apoyo social y de salud mental basadas en IA generativa pueden brindar un apoyo altamente receptivo y personalizado a los jóvenes. Esto puede conducir a una asistencia inmediata y mejorar la eficacia general del apoyo humano.

Por ejemplo, Teléfono de ayuda para niños es un servicio de salud mental en línea que utiliza tecnología de inteligencia artificial generativa para ofrecer apoyo las 24 horas del día, los 7 días de la semana a niños de todo Canadá. Utilizando PNL, este servicio analiza y equipara el estilo de comunicación de los jóvenes. Esto, a su vez, dirige a los niños al canal de servicio específico que necesitan, ya sea para apoyo con angustia emocional, problemas de intimidación u otras inquietudes.

Las líneas de ayuda ofrecen un espacio seguro y anónimo para que los jóvenes expresen sus sentimientos e inquietudes sin temor a ser juzgados. Sin embargo, si bien los chatbots de las líneas de ayuda pueden brindar respuestas rápidas, carecen de los matices y la adaptabilidad que ofrece el soporte humano. Por lo tanto, tendrán dificultades para sustituir plenamente la eficacia de la interacción humana.

Chatbots de apoyo emocional

Además de apoyar y dirigir a los jóvenes por teléfono, los chatbots de IA pueden servir como compañeros virtuales. En algunos casos, pueden brindar apoyo emocional a niños que luchan por hacer amigos o afrontar desafíos sociales. Además, estos chatbots pueden ayudar a los niños que se sienten solos o que luchan por compartir sus sentimientos con los demás.

Con las salvaguardias adecuadas, los chatbots también pueden ayudar a los niños que luchan contra la ansiedad social. Estas herramientas pueden ofrecer un espacio sin prejuicios para entablar conversaciones y desarrollar y practicar interacciones sociales.

Un ejemplo de este tipo de chatbot es harlie. Harlie es una aplicación para teléfonos inteligentes que utiliza tecnología de inteligencia artificial y algoritmos de PNL para hablar con humanos. Sin embargo, en lugar de limitarse a responder preguntas, Harlie fomenta el diálogo haciéndole preguntas al usuario. Además, con el permiso del usuario, Harlie puede capturar información sobre los patrones del habla para compartirla con los equipos de salud y de investigación y proporcionar una terapia específica.

¿Cuáles son los riesgos potenciales?

Impactos en el pensamiento crítico

Una dependencia excesiva de la IA generativa podría afectar negativamente las habilidades de pensamiento crítico de los niños. Esto se debe a que reduce las oportunidades de participar en análisis y resolución de problemas independientes. Además, utilizar la IA como principal fuente de conocimiento podría comprometer la capacidad de cuestionar y evaluar información. Vea nuestra guía para pensar críticamente en línea.

Es importante ayudar a los niños a incorporar herramientas de IA en su aprendizaje sin depender demasiado de ellos.

Relaciones parasociales y bullying

Existe una tendencia preocupante en la que los usuarios jóvenes copian comportamientos de intimidación y los dirigen a un chatbot de IA. En las redes sociales, algunos usuarios alientan a otros a "intimidar" a los chatbots mediante engaños y malos tratos en general.

Si bien los niños no acosan a otros humanos, existe preocupación sobre cómo las interacciones virtuales podrían normalizar los comportamientos de acoso.

Exposición a contenido explícito

El uso de ciertos chatbots de IA podría exponer a los niños a contenido explícito e inapropiado. Un ejemplo de este tipo de chatbot es Replika. Replika es un chatbot de IA personalizado que anima a los usuarios a compartir información personal. Cuanta más información comparte un usuario con él, más podrá personalizar sus respuestas.

Aunque el sitio web afirma ser sólo para mayores de 18 años, no requiere ninguna verificación de edad. Como tal, los niños encontrarán pocas barreras al usar el sitio.

Replika anima a los usuarios a participar en conversaciones explícitas con adultos. Además, les pide que paguen una tarifa para que el chatbot comparta imágenes indecentes o facilite una videollamada "romántica". Normalizar el acto de pagar por contenido explícito podría promover una cultura en la que los niños sientan que es aceptable solicitar, recibir y enviar imágenes inapropiadas, tanto con el chatbot como entre ellos mismos.

Generación de contenido ilegal

Los informes sugieren que los niños utilizan cada vez más herramientas de inteligencia artificial para generar imágenes indecentes de sus compañeros, lo que se ve facilitado por aplicaciones de fácil acceso para "desvestirse". Las imágenes indecentes de menores de 18 años son ilegales sin importar las circunstancias de su producción. Esto incluye material de abuso sexual infantil (CSAM) producido con tecnología deepfake.

Si bien la dinámica de producción y distribución de los deepfake difiere de otras formas de abuso sexual basado en imágenes, es probable que el daño para las víctimas sea igual de grave, si no más.

Lo que dicen los adolescentes sobre la tecnología deepfake

Para explorar los impactos de la tecnología deepfake con más detalle, organizamos una serie de grupos focales a principios de este año. Los grupos focales contaron con adolescentes de entre 15 y 17 años y cubrieron el tema de la misoginia en línea. Esto también incluyó las dinámicas de género que sustentan Acoso y abuso sexual de niño a niño.

Los participantes discutieron el abuso sexual relacionado con la tecnología deepfake, un tema que ha aparecido en los titulares varias veces este año, tanto en el Reino Unido como a nivel internacional. Los adolescentes, en particular las mujeres participantes, en general compartieron la opinión de que ser víctima de abusos de deepfake podría, de hecho, ser más dañino que las formas convencionales de compartir imágenes sin consentimiento.

Los participantes nos dijeron que la intensidad del daño radica en la falta de agencia y control que sentirían en un deepfake. Esto se debe a que no tendrían conocimiento ni consentimiento para su producción:

“Creo que el deepfake tal vez sería mucho peor, porque, con un desnudo, también lo has tomado, así que lo sabes, mientras que con el deepfake no tendrás ninguna idea. Literalmente podría haber uno en este momento y nadie podría saberlo” – Niña, de 15 a 17 años, grupo focal de Internet Matters.

Próximas investigaciones sobre IA generativa

El gobierno del Reino Unido ha decidido no introducir nueva legislación sobre IA. Más bien, dependerá de los marcos legislativos existentes para regular la producción y el uso de nuevas tecnologías de IA.

Todavía no está claro si este enfoque ligero protegerá suficientemente a las personas (especialmente a los niños) de toda la gama de riesgos que plantea la IA, incluidos los daños emergentes de los nuevos servicios y tecnologías.

Es importante que las opiniones y preocupaciones de los jóvenes y de los padres se tengan en cuenta en la formulación de políticas sobre los usos de la IA generativa. Esto es particularmente cierto cuando se trata del uso de la tecnología en la educación, donde las posibles aplicaciones pueden ser las de mayor impacto.

Entonces, estamos emocionados de anunciar Nueva investigación sobre los impactos de la IA generativa en la educación., basado en las opiniones de niños y padres. La investigación explorará cómo las familias y las escuelas utilizan Gen-AI, y las esperanzas y preocupaciones de los niños y los padres para el futuro.

¿Fue útil esto?
Cuéntanos cómo podemos mejorarlo

Mensajes recientes