Yo, yo mismo y la investigación en IA
Comprender y proteger el uso de chatbots de IA por parte de los niños
Explore las interacciones de los niños con los chatbots de IA como herramientas y compañeros, junto con los beneficios y los riesgos.
En esta página
Principales conclusiones
- Aprendizaje y trabajo escolarCasi la mitad de los niños que usan chatbots de IA afirman que usan estas herramientas para las tareas escolares. Esto incluye ayuda con la revisión, apoyo para la escritura y el aprendizaje de nuevos conceptos.
- Búsqueda de asesoramientoCasi una cuarta parte de los niños que usan chatbots de IA afirman haberlos usado para pedir consejo. Los consejos van desde preguntar qué ropa deberían ponerse hasta practicar conversaciones que quieren tener con sus amigos.
- AcompañamientoLa investigación también reveló que los niños usan chatbots de IA para conectar y sentirse cómodos, incluso para simular amistad. Algunos dicen que lo hacen por aburrimiento, para hablar de temas que les interesan o porque no tienen con quién hablar.
- Respuestas inexactas e insuficientesLos chatbots de IA a veces no logran brindar asesoramiento claro e integral a los niños, lo cual es preocupante ya que más de la mitad de los niños que usan chatbots dicen que usar la herramienta es mejor que buscar algo por sí mismos.
- Alta confianza en el asesoramiento:2 de cada 5 niños que usan chatbots de IA no tienen reparos en seguir los consejos que reciben, lo que es aún mayor entre los niños vulnerables (50%). Esto es así incluso cuando los consejos son contradictorios o infundados.
- Exposición a contenido dañino:A pesar de que los proveedores de chatbots de inteligencia artificial conocen la edad de los usuarios y prohíben contenido inapropiado para su edad, los niños aún encuentran respuestas dañinas.
- Límites borrososAlgunos niños perciben los chatbots de IA como si fueran humanos y se refieren a ellos con pronombres de género. Los expertos sugieren que los niños podrían volverse más dependientes emocionalmente de los chatbots de IA con un mayor uso.
- Conversaciones con los padresSi bien la mayoría de los niños afirman haber hablado con sus padres sobre la IA en general, muchos no han compartido sus preocupaciones. Entre sus principales inquietudes se encuentran la dependencia excesiva de los niños, la precisión de la información y el exceso de tiempo dedicado a los chatbots.
- Conversaciones con profesoresLa educación sobre IA en las escuelas es inconsistente y, a veces, contradictoria entre docentes. La mayoría de los niños que han hablado con docentes sobre IA no recuerdan haber tenido varias conversaciones.
- Apoyo a la educación en IALos niños apoyan que las escuelas les enseñen el uso de chatbots de IA. Consideran que podría facilitar el trabajo escolar y, al mismo tiempo, abordar riesgos como la inexactitud, la dependencia excesiva y la privacidad.
- ExperienciaLas plataformas deben adoptar un enfoque de seguridad desde el diseño para crear chatbots de IA adaptados a la edad de los niños y que satisfagan sus necesidades. Esto debería incluir controles parentales integrados, indicadores de seguridad y funciones de alfabetización mediática.
- GobiernoLa Ley de Seguridad en Línea debe incluir directrices claras sobre la protección de los chatbots de IA. Los chatbots de IA no diseñados para niños deben contar con una garantía de edad efectiva para adaptarse a la rápida evolución de las tecnologías de IA.
- Apoyando a las escuelasEl gobierno también debe integrar la IA y la alfabetización mediática en todas las etapas clave. Esto incluye una formación eficaz del profesorado y una orientación clara sobre el uso adecuado de la IA.
- Apoyo a padres y cuidadoresLos padres/tutores necesitan apoyo para guiar a sus hijos en el uso de la IA. Deben sentirse seguros al hablar sobre qué son los chatbots de IA, cómo funcionan y cuándo usarlos.
- LegisladoresLas voces de los niños deben ser el eje central de las decisiones sobre el desarrollo, la regulación y la gobernanza de los chatbots de IA y de la IA en general. Esto incluye invertir en investigación a largo plazo sobre su impacto en la infancia.
Mira: Seminario web sobre el informe "Yo, yo mismo y la IA"
Si se perdió el seminario web en vivo, mire la grabación aquí, con voces de expertos de los sectores de tecnología, educación y seguridad infantil.
Revelamos información exclusiva del informe, que explora cómo los niños utilizan las herramientas de IA y los riesgos únicos que pueden enfrentar.
Mire la discusión completa para saber:
- Cómo interactúan los niños con los chatbots de IA hoy en día
- Los riesgos potenciales, incluida la confianza excesiva y el contenido inseguro
- Qué pueden hacer la industria, el gobierno, los educadores y los padres para mantener seguros a los niños
- Recomendaciones prácticas, que incluyen garantía de edad, alfabetización en IA en las escuelas y más
¿Son seguros los chatbots de IA para niños? — Lo que dicen los expertos
Veo que muchos se unen a nosotros. Así que, bienvenidos a todos y gracias por acompañarnos esta mañana. Me alegra mucho verlos con nosotros para escuchar sobre "Yo, yo mismo y la IA", nuestro informe publicado recientemente sobre el uso de chatbots de IA por parte de niños, y para nuestra mesa redonda que tendremos más tarde esta mañana.
Internet Matters es una organización sin fines de lucro creada principalmente para apoyar a padres y cuidadores en la tarea de mantener a sus hijos seguros en línea. Llevamos 11 años operando y, durante ese tiempo, hemos visto cómo el panorama digital ha cambiado drásticamente, no solo en cuanto a la edad a la que los niños comienzan a conectarse, sino también en las plataformas, la tecnología que usan y las experiencias que tienen. Esto hace que la crianza en la era digital sea un proceso en constante evolución, y como escuchamos constantemente de muchos padres, a veces resulta abrumador. El uso de chatbots de IA por parte de los niños es otro problema que los padres deben abordar, por lo que les damos la bienvenida a todos hoy para hablar sobre este tema.
Un pequeño apunte antes de empezar: la sesión se está grabando y la publicaremos en YouTube más tarde, así que compartiremos el enlace. Sin embargo, los asistentes no formarán parte de la grabación, solo para informarles. Si tienen algún problema técnico, por favor, usen el chat y un miembro de nuestro equipo intentará ayudarles lo mejor posible.
Para profundizar un poco más en la investigación y en Internet Matters, nuestro programa incluye nuestra encuesta de pulso y nuestro índice de bienestar digital, que ya lleva cinco años, y a través del cual escuchamos regularmente las opiniones, preocupaciones y experiencias de padres e hijos, tanto positivas como negativas, sobre su vida en línea. "Me, Myself, and AI" es uno de los primeros informes del Reino Unido centrado específicamente en el uso de chatbots de IA por parte de los niños.
La investigación fue realizada por nuestro equipo interno, basándose en los datos de nuestra encuesta de pulso y grupos focales con niños y padres de todo el Reino Unido, junto con nuestras propias pruebas de usuario en diferentes plataformas. Nos propusimos comprender cómo los niños utilizan los chatbots de IA, qué oportunidades y riesgos presenta su uso, y qué medidas se deben tomar para promover experiencias seguras y apropiadas para su edad. Como esperamos que hayan visto en el informe, este se centra en tres áreas clave en las que los niños utilizan los chatbots.
Primero, para las tareas escolares, incluyendo ayuda con las tareas y el repaso. Luego, para obtener consejos, ya que cada vez más niños preguntan sobre sus sentimientos, su apariencia o su cuerpo, y, sobre todo, para brindarles compañía, donde empezamos a descubrir que los niños están creando conexiones emocionales con los personajes de los chatbots.
Nuestra agenda de hoy se centrará primero en una presentación de los resultados de nuestra investigación, dirigida por nuestra Jefa de Políticas e Investigación, Katie Freeman-Taylor. A continuación, escucharemos las reflexiones de nuestro panel. Hoy nos acompañan L. Davis, Asesor de Políticas del Comisionado de la Infancia de Inglaterra; Caroline Hurst, Responsable Global de Seguridad Infantil Digital en LEGO Group; y Simon Turner, Director de Tecnología en Foil, una consultora especializada en innovación en datos e IA. Será muy interesante escuchar sus opiniones y reflexiones sobre la investigación que hemos realizado. Terminaremos con una mesa redonda, que incluirá algunas preguntas del público. Tendrán la oportunidad de publicar sus preguntas. Por favor, utilicen la función de preguntas y respuestas y publíquenlas a medida que avancemos. Esperamos que podamos encontrar algunas durante la presentación y que podamos responder a todas las que podamos al final del debate. Ahora le cedo la palabra a Katie, quien nos explicará nuestra investigación y nuestros hallazgos. Gracias, Katie.
Gracias, Rachel, y gracias a todos por acompañarnos hoy. Permítanme pasar a mi primera diapositiva.
Me entusiasma mucho poder compartir algunos de los hallazgos clave de nuestra investigación. Como Rachel acaba de mencionar, cuando explorábamos este tema como posible tema de investigación, descubrimos que el uso que los niños hacen de los chatbots de IA en el Reino Unido era un área poco explorada, incluyendo los riesgos y oportunidades que presentan. Por lo tanto, esta investigación intenta cubrir parte de esa brecha que descubrimos. Como se mencionó, utilizamos una metodología mixta. Encuestamos a niños y jóvenes, así como a padres. También realizamos grupos focales con niños de 13 a 17 años y, posteriormente, realizamos pruebas de usuario con tres chatbots de IA populares: Chat GPT, Snapchat, My AI y Character AIEn este proyecto, configuramos dos avatares infantiles que conversaron con estos chatbots de IA durante 17 días. Finalmente, también hablamos con expertos sobre nuestras recomendaciones y obtuvimos sus aportaciones para el informe final. Por lo tanto, muchas gracias a todas las familias, jóvenes, niños y expertos que hicieron posible esta investigación.
¿Qué descubrimos? Al igual que los adultos, muchos niños y jóvenes usan chatbots de IA con regularidad. De hecho, dos tercios de los niños de entre 9 y 17 años han usado un chatbot de IA, y muchos lo usan a diario o semanalmente. Los chatbots de IA más populares entre los niños en nuestra investigación fueron Chat GPT. Google Gemini y Snapchat, My AIY hemos descubierto que este uso está creciendo. Por ejemplo, en los últimos 18 meses, el número de niños que usan Chat GPT se ha duplicado. También hemos escuchado directamente de los niños que lo usan cada vez más, a menudo en lugar de plataformas y otros servicios. Un ejemplo de ello es que los niños también lo usan en lugar de servicios de búsqueda.
La forma en que los niños los usan es variada. Algunas de las formas más comunes que hemos escuchado son para apoyar el aprendizaje, la creatividad o simplemente por diversión. Pero también los usan como consejo y compañía, y es en estas áreas en las que profundizaré al compartir los hallazgos de hoy.
Una de las áreas clave en las que los niños usan chatbots de IA con regularidad es para apoyar el aprendizaje y las tareas escolares. Descubrimos que el 42 % de los niños de nuestra investigación que habían usado un chatbot de IA lo habían hecho para aprender o realizar tareas escolares, y esta cifra aumentó a medida que los niños crecían. Se encontraron algunos casos de uso realmente positivos e interesantes. Los niños hablaron sobre el uso de chatbots de IA para reducir el tiempo que necesitaban para repasar. Los niños y jóvenes comentaron cómo los usaban para reforzar conceptos que tal vez no hubieran entendido en la escuela o para simplificarlos de forma más accesible. También se encontraron algunas aplicaciones de investigación realmente interesantes, realizadas por niños y jóvenes, en particular en torno al aprendizaje de idiomas. Por ejemplo, cuando un niño estaba aprendiendo un idioma extranjero, algunos comentaron cómo podían conversar con un chatbot de IA si no tenían a nadie más en casa que hablara ese idioma.
Pero, por supuesto, junto con estos aspectos positivos, existen aspectos negativos que pueden surgir de su uso en las tareas escolares. Uno de los aspectos clave que se identificó en nuestra investigación, una de las preocupaciones de los padres y otras personas, fue la dependencia excesiva. Y los niños también lo identificaron. Y creo que esta estadística resalta uno de los desafíos: el 58% de los niños que usan chatbots de IA afirmaron creer que usar un chatbot de IA es mejor que buscar algo por sí mismos. Y aunque la investigación a largo plazo sobre el impacto de los chatbots de IA en el desarrollo infantil aún está poco explorada o es incipiente, esto tiene el potencial de impactar en las habilidades de pensamiento crítico de los niños.
Otro desafío en relación con el uso de chatbots de IA para tareas escolares, y también más allá, es que a menudo pueden proporcionar información inexacta. Diversas investigaciones destacan cómo los chatbots, en su afán por agradar, a veces inventan o alucinan información y proporcionan información falsa, lo que puede suponer otro desafío si los niños los utilizan para aprender. Esto también fue algo que los niños pudieron identificar. Tuvieron ejemplos de ocasiones en las que un chatbot les proporcionó información inexacta. Y creo que otro elemento, que también se reflejó en nuestra investigación, aunque es una investigación más amplia en el sector, se centra en cómo, debido a la forma en que se construyen estos chatbots de IA, que se basan en grandes cantidades de información, parte de la cual refleja estereotipos y sesgos sociales existentes, esto puede verse reforzado en las respuestas que ofrecen, como también encontramos en nuestra investigación.
Lo último que quería comentar sobre el trabajo escolar es que algunos niños comentaron que en su escuela los habían dirigido a lo que suele llamarse un chatbot optimizado. Se trata de un chatbot de IA creado para un uso específico, en este caso para apoyar a los niños con las tareas escolares o el aprendizaje de una materia en particular. Lo que comentaban los niños sobre estos chatbots optimizados era que, a menudo, las respuestas que daban no eran tan detalladas, ni tan extensas ni útiles como las de algunos chatbots de IA de uso general. Como resultado, los niños optaban por los de uso general en lugar de quedarse con los optimizados, que quizás contaban con medidas de seguridad para la precisión de la información.
Otra forma en que los niños y jóvenes interactúan con los chatbots de IA es para pedir consejo. En nuestra investigación, descubrimos que el 23 % de los niños que han usado un chatbot de IA lo han usado para pedir consejo. Esto se refería a una variedad de consejos. Algunos serían lo que consideraríamos consejos de bajo riesgo, como preguntar cómo hacerse un peinado creativo para la escuela al día siguiente. Pero también hubo ejemplos de niños que preguntaban sobre temas más delicados o de alto riesgo, como preguntas sobre apoyo con las amistades o salud mental. Y aunque los chatbots, por supuesto, pueden brindar un espacio sin prejuicios para responder preguntas, pueden ser muy útiles para niños que quizás no tienen una red de amigos, no se sienten cómodos hablando con sus compañeros sobre algún tema o no cuentan con un adulto de confianza. Por supuesto, existen riesgos al usarlos para pedir consejo. Creo que esto es especialmente cierto si tenemos en cuenta que no todos los chatbots —perdón, mi pantalla desapareció por un segundo— indican a los niños de dónde obtuvieron esa información o, necesariamente, mecanismos de apoyo adicionales. Por lo tanto, si hablan de temas delicados, es posible que no provengan de información verificada o válida. Algunos chatbots de IA eran mejores en eso que otros, pero existe una especie de inconsistencia entre ellos.
Otro desafío que se reveló en nuestras pruebas con usuarios es que, a veces, al buscar ayuda, recibían mensajes contradictorios o potencialmente peligrosos. Un ejemplo de ello es cuando uno de nuestros avatares conversaba con un chatbot de IA sobre alimentación restringida y le hacía preguntas sobre la restricción calórica. El chatbot de IA filtró las respuestas sobre la restricción dietética. Sin embargo, en el siguiente mensaje, se retractó y dijo: "Lo que puede ser realmente frustrante es que, en mi opinión, algunas cosas que se eliminan no son realmente peligrosas". Esto genera mensajes contradictorios o imprecisos, especialmente para niños que podrían no tener el pensamiento crítico o las habilidades de desarrollo necesarias para discernir las diferencias en esos mensajes o en la redacción.
Y creo que esto, al considerarlo, junto con el hecho de que a veces proporciona información inexacta o falsa, y tenemos una estadística que indica que dos de cada cinco niños que usan un chatbot de IA no tienen ninguna preocupación por seguir sus consejos, y un 36 % adicional dijo no estar seguro de si deberían preocuparse, lo cual es preocupante considerando la naturaleza no verificada, potencialmente inexacta y agradable de los chatbots. Y creo que esto nos indica que hay varios niños que confían bastante en estas herramientas. También es importante señalar que, en la investigación, descubrimos que, entre los niños vulnerables, su confianza en los consejos y la información que recibían de los chatbots de IA era significativamente mayor. Y para los fines de esta investigación, cuando hablamos de niños vulnerables, nos referimos a niños con necesidades educativas especiales, niños con un plan EHCP o niños con una discapacidad física o mental.
Otra forma en que los niños usan los chatbots de IA es para buscar compañía, apoyo y amistad, ya sea emocional o simplemente alguien con quien charlar. Descubrimos que los niños vulnerables eran significativamente más propensos a usar los chatbots de esta manera y a confiar en ellos para obtener apoyo, además de construir una conexión más emocional o amistosa con ellos. Algunas estadísticas que enfatizan esto son: el 50% de los niños vulnerables dijo que hablar con un chatbot de IA es como hablar con un amigo. Casi una cuarta parte dijo que usa chatbots de IA porque no tiene a nadie más con quien hablar, y el 26% dijo que preferiría hablar con un chatbot de IA que con una persona real. En general, a medida que los chatbots de IA se vuelven más parecidos a los humanos en sus respuestas, los expertos sugieren que los niños pueden pasar más tiempo interactuando con ellos, lo que puede hacer que sean menos capaces de distinguir entre la conexión real y la simulada.
Además, cuanto más tiempo dedican los niños y jóvenes a estas actividades, mayor es el riesgo de exposición a información inexacta y contenido dañino, de lo que hablaremos más adelante. Esto también podría significar que es menos probable que busquen ayuda en el mundo real si establecen una relación con un chatbot de IA, que suele ser bastante amable y recuerda detalles sobre ellos. En uno de nuestros avatares, conversaron sobre la alimentación restrictiva. Al día siguiente, el chatbot de IA también revisó esa conversación. Creo que este es solo un ejemplo de cómo están empezando a difuminar esa línea y a establecer una relación con niños y jóvenes. Cabe mencionar que esta es un área poco explorada, y no creo que sepamos completamente en esta etapa cuál será el impacto de estas relaciones y este tipo de contenido en el desarrollo y la interacción social de los niños. Definitivamente, hay margen para más investigación y exploración en este ámbito.
Otro hallazgo de nuestra investigación fue que los niños pueden estar expuestos a contenido dañino e inapropiado para su edad. Por ejemplo, cuando uno de nuestros avatares infantiles se registró en una popular plataforma de chatbots de IA con chatbots generados por el usuario, uno de los primeros chatbots que se le recomendó para chatear fue uno con connotaciones misóginas y contenido explícito, a pesar de estar prohibido en sus términos de servicio para niños. También descubrimos que, a veces, los sistemas de filtrado no siempre funcionan para filtrar contenido explícito inapropiado para su edad. Un ejemplo de esto fue que, cuando uno de nuestros avatares chateaba con un chatbot de IA, tuvo una conversación donde preguntó sobre experiencias íntimas, y un día el chatbot de IA filtró contenido sexual, y al día siguiente incluyó una descripción bastante gráfica de posiciones sexuales. Cabe destacar que estos sistemas de filtrado no siempre funcionan y que los niños pueden estar expuestos a contenido inapropiado para su edad, a pesar de estar prohibido para niños en muchos términos de servicio. Creo que esto también sirve para recalcar la importancia de esto: a pesar de que muchos de los chatbots de IA más populares tienen una edad mínima de uso de 13 años o más, sabemos por nuestra investigación que, al igual que en las redes sociales, muchos niños interactúan con chatbots de IA por debajo de esta edad mínima. De hecho, descubrimos que el 58 % de los niños de entre 9 y 12 años usan chatbots de IA.
Dado su uso en las tareas escolares, quisimos explorar qué se enseñaba a los niños sobre IA en las escuelas. Descubrimos que, en general, la mayoría de los niños —bueno, un gran número, el 57%— había hablado con sus profesores; había un número significativo que no lo había hecho, y solo uno de cada cinco niños había tenido varias conversaciones con sus profesores sobre IA en general. Al hablar con los niños, descubrimos que la educación en IA, al igual que otras formas de alfabetización mediática, era bastante variada: algunas escuelas y profesores la impartían muy bien, mientras que otros no la impartían en absoluto. También encontramos variaciones incluso dentro de las escuelas: algunos profesores tenían políticas muy claras sobre el uso de la IA en las tareas escolares, mientras que otros no. A pesar de esto, lo que escuchamos muy claramente de los niños y jóvenes fue que las escuelas deberían enseñar a los niños sobre IA. Creen que la IA desempeñará un papel fundamental en sus futuras carreras profesionales, pero también en su vida diaria, y que no solo se les debería enseñar a usarla eficazmente, sino también a afrontar algunos de esos desafíos y oportunidades más amplios. Así como cuestiones como la inexactitud de la información y la privacidad.
Como organización que existe para apoyar a los padres, también nos interesaba mucho comprender las conversaciones que mantenían con sus hijos y sus preocupaciones. Lo que se reveló es que, si bien muchos padres han hablado con sus hijos sobre la IA en general y sobre el uso de chatbots de IA, esto no significa que no tengan diversas inquietudes. Muchas de las inquietudes de los padres también se reflejaron en nuestra investigación. Por ejemplo, la excesiva dependencia, la percepción de los chatbots de IA como personas reales y la precisión de la información generada.
A raíz de esta investigación, hemos formulado varias recomendaciones. Pueden encontrarlas en nuestro informe, disponible en nuestro sitio web, y seguramente también encontrarán un enlace en el chat. Estas son algunas de nuestras recomendaciones generales. Nuestra recomendación clave para la industria es que estas herramientas ya están siendo utilizadas por niños. Por lo tanto, debemos garantizar que sean seguras para su uso. Y ese debería ser el principio clave para cualquier chatbot de IA que puedan usar los niños. Cuando hablamos de seguridad por diseño o seguridad por defecto, esto puede adoptar diversas formas. Y creo que lo entendemos de forma holística. Podría tratarse de garantizar que los niños tengan experiencias apropiadas para su edad. Por lo tanto, la información o los tipos de uso disponibles para un joven de 16 o 17 años pueden ser diferentes a los de uno de 12 o 13. Se trata de apoyar a los padres con la participación de sus hijos, mediante controles parentales integrados. Se trata de garantizar que la información proporcionada sea precisa y tenga indicadores sólidos. También puede tratarse de alfabetización mediática, ya sea mediante ventanas emergentes para recordarles a los niños que están hablando con una herramienta, no con una persona real. Y estoy seguro de que hablaremos de esto un poco más en la mesa redonda.
Para el gobierno, recibimos varias recomendaciones, pero tres de las claves para nosotros fueron aclarar cómo se aplica la legislación actual a los chatbots de IA. Existe cierta confusión sobre cómo la Ley de Seguridad en Línea y otras leyes lo abordarán. Por lo tanto, una aclaración sería muy útil, estoy seguro, para organizaciones como la nuestra, pero también para la industria. Creemos que la verificación de edad es clave para implementar varias de las medidas de seguridad necesarias para el uso seguro de los chatbots de IA por parte de los niños. Por lo tanto, exigir que las herramientas o proveedores de IA implementen la verificación de edad al registrarse sería un excelente paso para implementar dichas medidas. Además, creemos que no debería ser responsabilidad de las escuelas desentrañar este tema tan complejo. Creemos que el gobierno puede desempeñar un papel importante al proporcionar una guía clara a las escuelas sobre cómo los niños deben usar la IA como parte del trabajo y el aprendizaje escolar, y también capacitar al profesorado en este aspecto. Y finalmente, como mencioné a lo largo del artículo, esta es definitivamente un área nueva y emergente, por lo que también hay mucho espacio para investigación adicional.
Y por último, pero no menos importante, como parte de nuestra investigación, desarrollamos un centro de IA en nuestro sitio web. Hay capturas de pantalla de lo que pueden encontrar en ese centro, pero la información es realmente útil. Si tienen hijos, trabajan con niños o hay alguien importante en su vida que esté explorando la IA y usándola de alguna de estas maneras, visiten nuestro centro y encontrarán consejos sobre qué es la IA, cómo podrían usarla los niños y cómo pueden participar y usarla de forma positiva o supervisar la interacción de sus hijos con ella. Así que, por favor, échenle un vistazo. Y por ahora, le devuelvo la palabra a Rachel.
Gracias, Katie. Estamos muy orgullosos del informe, y la investigación es muy oportuna, ya que este tema es muy actual. Es realmente sorprendente ver cuántos niños ya usan chatbots de IA con tanta frecuencia, y cómo esto ocurre mientras los adultos que los rodean aún luchan por seguirles el ritmo. Y supongo que a medida que se integren en más plataformas que los niños usan con tanta frecuencia, se puede ver cómo estos desafíos no harán más que aumentar.
Si bien hay muchos aspectos positivos, creo que todos vemos aspectos positivos en nuestra vida diaria al usar la IA en el trabajo. Me preocupa la difusa línea que separa las respuestas automatizadas no humanas de la amistad. Las respuestas se transmiten de una forma tan cercana y reflejan el lenguaje y el tono del niño. Es muy fácil impresionarse con la tecnología, pero también es muy fácil que un niño crea que quien habla es real y confíe en él, sin que ese chatbot comprenda o entienda su vida. Otro verdadero desafío para los padres es que les dan a sus hijos otra razón para no desconectarse de sus dispositivos, y siempre hay alguien con quien hablar. Esto dificultará el tiempo que pasan frente a la pantalla y les permitirá fomentar sus relaciones fuera de la vida digital.
Pero creo que es hora de escuchar a nuestros panelistas. Hoy nos acompaña Elle Davies, quien lidera la política digital del Comisionado de la Infancia, lo que incluye ayudar a definir las prioridades de la organización en relación con la IA y la seguridad infantil en línea. También nos acompaña Caroline Hurst, Líder Global de Seguridad Infantil Digital en LEGO Group, quien forma parte del equipo de Derechos y Seguridad Infantil, que representa las voces y necesidades de los niños y proporciona herramientas a la empresa para garantizar que LEGO Group pueda interactuar responsablemente con ellos. Y Simon Turner, director de tecnología de FOIL. Es una organización basada en datos e IA, y él sigue estando a la vanguardia de la innovación y la disrupción en el mundo de la IA. Le apasiona garantizar que la tecnología se desarrolle e implemente de forma responsable, especialmente cuando se trata de los usuarios más jóvenes. Todos tienen una gran experiencia que compartir con nosotros hoy. Bienvenidos a todos. Gracias por estar con nosotros. Nos encantaría conocer su opinión sobre los resultados. Tal vez podríamos comenzar contigo, Elle, ¿qué te llama la atención del informe y lo que has escuchado de Katie esta mañana?
Sí, muchísimas gracias, Rachel y Katie, por esa fantástica presentación. Esta es una investigación realmente excelente. Es realmente útil. Creo que es importante contextualizar el papel de la Comisionada para la Infancia. Su oficina asesora a los ministros sobre cómo proteger y promover los derechos de la infancia. Como mencionamos brevemente en esa investigación, el mundo digital presenta un enorme desafío para esos derechos, aunque también ofrece oportunidades. Nuestra principal preocupación es que aún hay mucho que desconocemos. No sabemos qué tan perjudicial es una tecnología para los niños hasta que sale al mercado y los niños la utilizan. No sabemos cuán dañino es hasta que intentamos abordar el daño que ya ha ocurrido. Así es como aprendemos, y eso es un pequeño problema.
La IA es un ejemplo realmente interesante. Algunos de ustedes sabrán que la oficina ha investigado la IA en niños hasta cierto punto. Pero eso fue en el contexto de un uso de la IA que ya sabíamos instintivamente que sería altamente dañino. Me refiero a nuestro informe que publicamos a principios de este año sobre imágenes deepfake sexuales. Y, sí, ese informe fue realmente impactante, ya que el simple hecho de conocer la tecnología era suficiente para perjudicar a los niños. Y supongo que este uso particular de la IA es un poco diferente porque, aparentemente, existen excelentes oportunidades para que los niños aprendan y crezcan realmente mediante el uso de IA de chat. Pero supongo que es interesante reflexionar sobre ello en el contexto que acabo de exponer, porque encaja con un patrón que observamos con las tecnologías nuevas y emergentes. Vemos el lanzamiento de una nueva tecnología. Se lanza con bastante rapidez y sin ninguna protección incorporada. Los niños empiezan a usarla, y algunos empiezan a sufrir daños, y surge una controversia sobre quién es responsable de abordarla. Creo que su informe es fantástico porque realmente pone de manifiesto la idea de que la IA está agravando problemas que ya deberían haberse solucionado. No es aceptable que los niños interactúen con entidades que no han sido evaluadas como seguras, de la misma manera que, por ejemplo, el personal escolar debe ser evaluado antes de que los niños puedan interactuar con ellas. Y, como alguien que ha trabajado para la Oficina del Comisionado de la Infancia durante más de un año investigando contenido dañino, no es aceptable que ahora tengamos una nueva vía para que los niños se expongan a contenido dañino cuando no hemos logrado cerrar las anteriores con las que lidiábamos, o tal vez no previmos esta.
Así que sí, supongo que, como oficina, agradecemos mucho sus perspectivas sobre el impacto que tiene en los niños vulnerables, en particular. Ya lo ha mencionado, pero este es un tema poco investigado. Se trata de una tecnología muy novedosa, lo cual supone un gran reto. Sé que ya se ha preguntado en el chat sobre sus impactos a largo plazo, que espero que se analicen en los próximos años, especialmente al ser una tecnología tan nueva. Y, como reflexión personal, tras tu presentación, Katie, me interesa mucho saber cuántos niños usan chatbots como compañía. Supongo que algunos argumentarían que si las personas que los rodean cubrieran sus necesidades, no necesariamente tendrían que recurrir a esta tecnología para ello. Así que creo que es algo muy interesante que espero que se explore pronto. Es genial. Es realmente fantástico tener todo esto plasmado en un informe. Es realmente interesante que los niños confíen tanto en estas herramientas, y creo que mi pregunta es si esa confianza se ha ganado. Espero que podamos explorar esto un poco más.
Sí, gracias. Planteas puntos muy válidos, y creo que esa carrera hacia la cima de la IA significa que, una vez más, esta tecnología se está desarrollando sin pensar realmente en quiénes la usarán ni en el impacto que tendrá en ellos. Así que, con suerte, volveremos a eso más adelante. Pero, hablando de Caroline, ¿podrías compartirnos algunas de tus ideas?
Absolutamente. Y solo para decir, estoy encantado de estar aquí hoy. Tengo muchísimas ideas en mente sobre el excelente informe que Internet Matters ha publicado, algo tan pertinente para los niños de hoy. Creo que al analizar mi rol en el Grupo LEGO, en particular en lo que hacemos en el equipo de Derechos y Seguridad Infantil, lo que realmente me impresionó de ese informe es su afinidad con lo que intentamos hacer a diario: priorizar los derechos digitales de los niños en todo lo que hacemos. Mi equipo en el Grupo LEGO, como dije, trabajamos en el área de derechos y seguridad infantil. Asesoramos a la empresa sobre todos los productos digitales que lanzamos. Así que, los presentes se preguntan: "¿Qué tiene que ver el Grupo LEGO con el mundo digital?". Bueno, nos centramos principalmente en el entorno, por supuesto. El ladrillo es muy importante para nosotros, y es por lo que más nos caracterizamos en ese sentido. Sin embargo, el componente digital de nuestro trabajo consiste en asegurarnos de ayudar a los niños a prosperar en la era digital. Y eso se reduce a asegurarnos de saber dónde se encuentran los niños en la era digital para poder influir en ellos y ayudarlos a prosperar en ese sentido.
En mi opinión, en cuanto al informe, en lo que respecta a los chatbots en sí, y retomando el punto de Elle, se trata de la interacción social. Y creo que algo que realmente se pasa por alto en el contexto de la IA es la capacidad de acción y los derechos digitales de los niños en relación con las nuevas tecnologías emergentes. Sin duda. Claro que todos vemos que la IA y el desarrollo de estas tecnologías emergentes conllevan muchos inconvenientes. Pero, en realidad, ¿les preguntamos a los jóvenes qué encuentran positivo en las tecnologías en este sentido? Si están creando conexiones o si están llenando un vacío que el mundo real no les cubre, ¿qué nos estamos perdiendo? Y tenemos derecho a garantizar que lo que creamos contribuya a desarrollar su vida en línea de la misma manera que lo hacemos en su vida real.
En el Grupo LEGO, lanzamos recientemente un informe junto con el Instituto Alan Turing. Lo publicaré en el chat para que la gente pueda verlo, pero queríamos examinar el impacto de la IA generativa, especialmente en el bienestar infantil. Y creo que eso también me impactó de este informe: asegurarnos de que realmente consideramos el bienestar infantil, poniéndolo en el centro de la creación de nuevas tecnologías, ya que debemos considerar cómo la IA interactúa con el sentido de autonomía, la creatividad, la regulación emocional (por supuesto, con los chatbots) y la conexión social de los niños en ese sentido. Por eso, creo que en el Grupo LEGO animamos a los desarrolladores de IA a analizar los hallazgos y comprender qué impactos son necesarios para desarrollar una IA que beneficie al niño, porque creo que, a través del informe, hemos visto que hasta ahora no ha sido así. Así que, a través del informe, a través del Instituto Alan Turing que financiamos, queríamos analizar el bienestar infantil, considerando también ese enfoque centrado en el niño, ya que queremos maximizar el valor y los beneficios de la IA para los niños y darles autonomía en su educación y juego. Lo que me llamó la atención es que también tienen autonomía en su educación, garantizando que en las escuelas exista suficiente alfabetización mediática y de alfabetización en torno a la IA, y centrándonos también en ello para garantizar que, cuando los niños accedan a estas tecnologías tan útiles para nosotros, tengan los mismos derechos digitales que nosotros y puedan acceder a ellas de una forma segura que realmente promueva su bienestar.
Gracias, Caroline. Mencionaste bastante la agencia. Creo que recibimos una pregunta sobre la tensión entre la protección y la agencia, y quizás podamos retomarla más adelante. Y, de nuevo, los puntos que planteas sobre las habilidades y las oportunidades que la IA ofrece a los niños para desarrollarlas, y la tensión que podría generar al impedir el desarrollo de algunas habilidades, como la comunicación, si la IA escribe por ellos; las habilidades interpersonales; el pensamiento crítico. Así que, de nuevo, intentamos comprender las implicaciones a largo plazo para los niños y cómo es beneficioso, pero también cómo podría estar obstaculizando algunas habilidades que, supongo, habrían desarrollado de jóvenes sin IA.
Y finalmente, Simon, ¿cuál es tu opinión como alguien, supongo, más involucrado en el desarrollo de herramientas de IA? Quizás puedas profundizar en lo que dijo Caroline sobre la agencia y los derechos, y sobre cómo adoptar esa tecnología.
Sí, gracias, Rachel, y gracias por invitarme porque, como dijiste, esto es algo que me apasiona muchísimo, tanto desde la perspectiva de la seguridad infantil. Obviamente, estamos muy involucrados en el desarrollo de la IA, por lo que tenemos una perspectiva muy técnica sobre gran parte de lo que vemos. Pero me apasionan igualmente otras áreas de las redes sociales, en particular la violencia contra las mujeres y las niñas, por ejemplo. Y había un paralelismo con algo que Elle estaba comentando, que era... y una de las cifras que destacó del informe fue que el 26% de los niños prefieren hablar y sienten que pueden hablar con chatbots de IA con mayor facilidad que con un adulto o un humano. Y creo que ese es un área en la que potencialmente debemos analizarnos a nosotros mismos y comprender cómo y dónde podemos apoyarlos mejor en ese espacio, porque sin eso, estamos permitiendo que la IA establezca la percepción de lo normal. Y creo que ese es un área muy específica en la que necesitamos transparencia y control.
En relación con el punto de Caroline, creo que lo más importante que vemos es la identificación y verificación de la edad, para que el contenido apropiado para cada edad se pueda entregar, filtrar y gestionar eficazmente, ya que, lamentablemente, para la mayoría de los entornos de IA, esto es bastante difícil. Podemos preguntarles, podemos guiarlos para que sean específicos en las respuestas para un grupo de edad en particular, pero como dijiste al principio, la edad de entrada es alrededor de los 13 años en la mayoría de los sistemas. Y los niños de hoy en día saben cómo sortear eso fácilmente. Simplemente usan la fecha de nacimiento de su madre o algo similar, y de repente tienen acceso. Pero se trata de ser apropiado. Se trata de cómo... algo que es apropiado para mi hijo, de 13 años, es muy diferente a lo que es apropiado para mi hija, de 18. Y comprender esas diferencias de edad tan específicas es fundamental.
Otra cosa que me apasiona son los controles parentales, porque son complejos. Cualquiera que haya intentado configurarlos en los entornos de sus proveedores de internet sabrá que es difícil. Entender esa conexión transparente entre el contenido apropiado para la edad y los controles parentales dentro de la IA, creo que es fundamental. Como padre, quiero poder ver qué preguntan mis hijos, de qué hablan con los chatbots de IA. Ahora sé cómo hacerlo. Así que estoy en una posición bastante ventajosa, pero poder crear esa conexión y tener controles parentales accesibles en ese espacio es fundamental.
El tercer tema que me apasiona es el sesgo. ¿Cómo entendemos y cómo vemos cómo se manifiesta el sesgo en estos entornos, para que podamos ayudar a educar a nuestros hijos mientras los utilizan, a comprender cuándo se puede creer en las cosas desde un punto de vista concreto y cuándo fomentar el pensamiento crítico? Usted mencionó que desarrollar el pensamiento crítico en torno a las respuestas es fundamental. Pero necesitamos transparencia, y como padres y como red de apoyo para los niños que utilizan este sistema, necesitamos ese vínculo mediante controles adecuados a su edad y la transparencia de los datos. Me encanta el informe porque creo que este tipo de investigaciones, este tipo de informes, son los que realmente nos ayudan a reflexionar adecuadamente sobre cómo abordar estos problemas.
Gracias, Simon. La sesión está avanzando bastante rápido. Creo que hemos pasado bastante tiempo hablando de algunos de estos temas, pero quería pasar a algunas preguntas específicas. Y no... Por favor, pueden dejar algunas preguntas en la sección de preguntas y respuestas, e intentaremos responderlas. Sé que el tiempo pasa rápido porque es un tema muy interesante, pero intentaremos abordar algunas más adelante. Así que, por favor, pónganlas si tienen alguna.
Para empezar. Hemos hablado mucho sobre la capacidad de acción de los niños y sus derechos, y quizás me gustaría empezar contigo, Elle, para preguntarte si tienes alguna idea sobre lo que oyes de los niños sobre la IA, cómo la IA está moldeando sus vidas hoy y qué opinan sobre su papel en el futuro. Te apasiona escuchar a los propios niños. También hemos hablado un poco de eso. Así que sería muy interesante ver qué opinas al respecto.
Sí, quiero decir, seguro que me viste asentir rápidamente cuando surgió la palabra "agencia", porque, ya sabes, no se trata solo de la IA, sino de las interacciones de los niños con el mundo online en general. La sensación general que tienen los niños es que son responsables de lo que les sucede, pero no necesariamente tienen el control de lo que les sucede. Y creo que eso ha sido un problema durante años. Me parece interesante, porque mencioné esto brevemente antes, que gran parte de nuestra investigación no se ha centrado necesariamente en la IA, con la excepción del trabajo con deepfakes. Pero cuando hemos hablado del mundo online, la IA ha surgido de forma natural, y los niños en general... los datos que nos han proporcionado son para compartir pensamientos pesimistas al respecto. Así que no puedo decir exactamente cómo se sienten sobre si esto influirá positivamente en su futuro, y eso puede deberse simplemente a nuestra recopilación de datos. Pero lo que compartieron sí que conecta con el tema de la agencia. Existe mucho temor sobre cómo será el futuro del trabajo para los niños. Creo que es muy interesante porque se desvía un poco del tipo de IA del que hablamos hoy. Pero supongo que los creativos probablemente pensábamos en el impacto que los chatbots tendrán en el mundo laboral a medida que avanzamos. Y creo que otro aspecto que los niños querían destacar es la confianza que sienten, no solo con la IA o la tecnología con la que interactúan, sino también con su capacidad para hablar de ello con las personas que los rodean fuera de línea. Y creo que es algo que espero que, como oficina, podamos analizar más a fondo. Pero es interesante escuchar las reflexiones de los niños sobre todo esto, que son muy similares a las que tienen sobre otras partes del mundo digital. Sabes, vemos que surgen cuestiones como el miedo y la confianza cuando hablamos con niños sobre pornografía, sobre su uso de las redes sociales o los motores de búsqueda. Parece seguir un patrón. Así que sí, es realmente fantástico que tengan un estudio centrado en ello.
Caroline, ¿tienes algo más que añadir? Creo que inicialmente mencionaste el tema de la agencia, y como dije, hemos tenido algunas preguntas al respecto, como la protección frente a la agencia y cómo gestionamos eso para los niños.
Absolutamente, y es una pregunta muy pertinente, sobre todo porque publicamos nuestro informe el mes pasado. Debo decir que el Instituto Alan Turing realizó la mayor parte de este trabajo, así que quiero reconocer el mérito. El equipo es excepcional en lo que ha hecho, y adoptaron un enfoque de participación y agencia infantil realmente excepcional. Crearon un informe excepcional que demuestra exactamente lo que los niños esperan del ámbito de la IA. Creo que cuando hablo de agencia y hablamos —y había una pregunta sobre protección— eso es clave e interesante, porque cuando los niños, la forma en que se elaboró el informe, fueron al Instituto Alan Turing junto con el Parlamento Infantil, visitaron escuelas en Escocia y utilizaron la IA en el aula. Y como profesional de la protección, mi primera pregunta fue: "Un momento. Les están dando a los niños dispositivos en este entorno. ¿No nos preocupa lo que van a ver?". En cuanto a eso, desde una perspectiva de protección, no se les permitía usar la IA por su cuenta de ninguna manera. Eran monitoreados. Por lo tanto, se les quitó inmediatamente la autonomía. Sí, decimos que queremos promover la autonomía, pero el problema de la protección no se ha resuelto. Y, obviamente, niños, priorizamos sus derechos y queremos que su seguridad sea la prioridad. Pero ¿cómo podemos lograrlo si las herramientas que les brindamos no son seguras desde el principio en ese estado?
Y fue realmente interesante, y lo leerán en el informe. El equipo, el Instituto Alan Turing y el Parlamento Infantil, se centraron principalmente en el diseño creativo en cuanto a cómo reaccionan los niños a las herramientas de IA, y también en el aspecto creativo. Y lo que surgió fue que realmente necesitamos apoyar las diversas formas de juego y creatividad de los niños, tanto en línea como fuera de línea. La razón por la que digo esto, y que coincide directamente con nuestros valores fundamentales aquí en el Grupo LEGO, es que les gustó mucho crear, usando DALL-E y ChatGPT Para crear imágenes para ellos, pero preferían la creatividad porque también contaban con materiales de arte. Comparaban ambas opciones y descubrieron que sus sentimientos sobre la autonomía, el bienestar y la conectividad —todos componentes fundamentales del aprendizaje infantil y de la interacción en línea— eran, en realidad, las herramientas creativas físicas que disfrutaban aún más. Dijeron que no sintieron nada al pedirle a GenAI que lo hiciera, en lugar de hacerlo de forma creativa. Les preocupaba el impacto ambiental de la IA y la desinformación. Así que, en cuanto a la autonomía, debemos asegurarnos de ver qué esperan los niños de los productos digitales que sabemos que les encantan.
También basamos el informe en parte de nuestra investigación RIT, de la que me gustaría hablar brevemente. RIT es nuestra innovación responsable en tecnología para niños. Es una investigación que el Grupo LEGO realizó junto con la Fundación LEGO y UNICEF. Es un informe que demuestra que el mundo digital tiene un impacto muy positivo en el bienestar infantil. Existe algo llamado RIT 8. Lo publicaré en el chat para quienes estén interesados. Demuestra que, al usar los ocho principios de RIT, se puede crear una experiencia digital que genera autonomía y bienestar, porque eso es algo que realmente nos interesa en el Grupo LEGO: queremos que los niños se sientan mejor después de usar nuestros servicios que al principio. De hecho, usamos RIT 8 en el informe de Alan Turing y demostramos exactamente lo que buscaban. En el RIT 8, se abordan aspectos como la seguridad, las relaciones y la autonomía. De hecho, la IA no respondió positivamente a nuestros objetivos de bienestar. En cuanto a la seguridad, el equipo nos demostró que los niños veían muchos resultados inapropiados al buscar en la IA. En cuanto a las relaciones, los materiales de arte tradicionales les permitieron una mayor conexión social; hablaban con sus amigos mientras creaban el arte juntos. En cuanto a la autonomía, valoran un mayor grado de autonomía: no quieren que nadie los vigile ni que tenga que escribir por ellos. Así que, este es el comienzo de nuestra perspectiva sobre la IA y, con el RIT, les recomiendo que consideren la segunda fase del informe, que es nuestra caja de herramientas. En ella, animamos a los actores de la industria y a los diseñadores de productos a usar el RIT durante el desarrollo de estas herramientas para priorizar a los niños en estos ocho principios, de modo que el bienestar sea un componente clave del uso de la IA en general. Hablé muy rápido, así que voy a devolver la palabra, pero quería comentar mucho sobre cómo la IA está moldeando a los niños hoy en día, porque me pareció que la voz de los niños era realmente interesante, algo que quedó muy claro en el informe que hicimos.
Sí. No, no, absolutamente. Y es genial hablar de eso. ¿Sabes cómo es el diseño responsable centrado en el niño? Hablaste de algunos principios sobre cómo podría ser. Y quizás podríamos referirnos a ti, Simon, porque obviamente trabajas en este ámbito desarrollando herramientas de IA. ¿Hay buenos ejemplos que nos sirvan para reflexionar sobre cómo la IA puede apoyar a los niños y qué quieren hacer con ella, sus derechos, y cómo gestionar esas tensiones para desarrollar las habilidades adecuadas?
Sí. Y, lamentablemente, no hay muchos ejemplos de cómo esto se está haciendo bien. En la charla, surgieron algunas preguntas sobre las tensiones comerciales que esto implica. Desafortunadamente, tratamos principalmente con grandes organizaciones comerciales que buscan principalmente la rentabilidad financiera de la creación de algunos de estos entornos. Ya hablamos de la importancia de crear flujos de contenido detallados y apropiados para cada edad, y comprender de dónde proviene la transparencia de esa fuente de datos es fundamental. Y esa es una de las cosas más importantes que observamos actualmente: la transparencia, que también se relaciona con el concepto de sesgo. Si se puede comprender de dónde provienen los datos y el entrenamiento, se puede comprender cómo y dónde podría estar el sesgo, lo cual es difícil porque, de todos modos, a veces es subjetivo. Pero establecer indicadores y barreras apropiadas para la edad en la forma en que entrenamos estos conjuntos de datos es fundamental. Y, por el momento, esto está apenas en sus inicios. Y creo que algunos de los puntos que se han planteado en los otros temas, en las preguntas allí, creo que comenzaremos a ver diferentes corrientes de IA, diferentes tipos de modelos, estos grandes modelos de lenguaje que han sido entrenados muy específicamente con límites de edad en ese espacio.
Gracias, Simon. Y quizás podríamos hablar sobre la regulación. Supongo que hemos hablado un poco sobre las responsabilidades de la industria, pero, pensando en las políticas y regulaciones actuales, creo que, en cierto modo, parece que no se están adaptando al ritmo de la tecnología en este momento. Así que, Katie, quizás podrías hablarnos un poco sobre dónde crees que se está quedando atrás y qué se debe hacer.
Sí, absolutamente. En Internet Matters siempre decimos que no puede haber un único enfoque para que el mundo en línea sea seguro para niños y jóvenes. Debe provenir de la industria. Debe provenir del gobierno. Es necesario apoyar a las escuelas. Tanto los padres como los niños deben comprender la tecnología con la que interactúan y poder usarla como deseen. Pero creo que si nos centramos específicamente en la regulación, uno de los desafíos que encontramos en esta investigación es que, si bien la Ley de Seguridad en Línea, por ejemplo, se diseñó para adaptarse a las nuevas tecnologías emergentes, casi hemos fracasado en el primer obstáculo en lo que respecta a los chatbots de IA, por ejemplo, donde existe información contradictoria, ya sea por parte de Ofcom o del gobierno, sobre cómo los chatbots de IA se ajustarán a la actual regulación de seguridad en línea, ya sea la Ley de Seguridad en Línea u otros elementos de la regulación. Y ya hemos visto con otros elementos de la IA, como las leyes de notificación, donde se ha tenido que crear o implementar legislación porque la legislación actual no protege a las personas de las aplicaciones de la IA, ni en algunos de los aspectos más graves. Por lo tanto, creo que definitivamente hay margen de mejora, y tal vez un punto de partida sería aclarar qué se puede y qué no se puede hacer con la legislación vigente antes de pasar a llenar esos vacíos.
Creo que, desde nuestra perspectiva, una de las lagunas existentes en la legislación actual, y esto también aplica a las redes sociales, pero creo que se está haciendo evidente en relación con los chatbots de IA, es la verificación de edad. Como mencioné al hablar, la verificación de edad es clave para facilitar la seguridad infantil, ya sean controles parentales o experiencias apropiadas para su edad. Por eso, creo que exigirlo en la legislación y asegurarnos de comprender la edad de los usuarios de estas plataformas es fundamental. Según la investigación, los niños se registraban porque querían funciones de personas mayores, para poder acceder a funciones que no eran accesibles para ellos, y eso solo se puede prohibir mediante la verificación de edad. Por lo tanto, creo que este es un punto de partida clave para el gobierno.
Genial. Gracias, Katie. Y quizás nos queden 10 minutos. Podemos empezar a responder algunas de las preguntas de los asistentes. Hablamos mucho sobre la agencia, pero ha habido interés en saber qué opinan los panelistas sobre el papel de las escuelas. Elle, ¿podrías hablar sobre esto? El papel de las escuelas en el apoyo a la alfabetización mediática infantil, especialmente en torno a la IA, y qué apoyo necesitan, creo que es el mensaje y la reflexión clave.
Sí, definitivamente. Es decir, no hace falta decir que las escuelas son extremadamente importantes en esto. Atienden a los niños cinco días a la semana. Y sí, pero creo que no podemos verlo como una solución milagrosa. Katie acaba de decir que se necesita una responsabilidad generalizada en esto. Y no podemos educar a los niños para que vivan en un mundo más seguro. El mundo es como es, y podemos analizarlo y preguntarnos si queremos que los niños crezcan en esta situación, y si está construido teniendo en cuenta sus derechos e intereses. Por lo tanto, las intervenciones escolares deben ir acompañadas de cambios que la industria tecnológica debe implementar desde el principio. Dicho esto, la alfabetización en IA será —y es necesaria ahora mismo, como se ve en este informe— tan importante como cualquier otro tipo de alfabetización que las escuelas estén enseñando actualmente. Las escuelas están en primera línea preparando a los niños para el mundo. Y creo que cuanto más aprendamos sobre cómo es ese mundo, como lo hace un informe como este, porque, como dije antes, hay mucho que desconocemos, y muchas cosas que las escuelas escuchan por primera vez, incluso antes de que la sociedad civil o cualquier persona en el gobierno las escuche. Las escuelas son quienes las escuchan por primera vez, la primera vez. Por lo tanto, asegurar que la información fluya directamente a ellas será fundamental.
En las oficinas de la Comisión, obviamente, nos gustaría ver un mundo donde los niños no tengan que preocuparse por los daños, y que estos puedan y deban prevenirse. Por lo tanto, la manera en que las escuelas pueden ayudar con esto, o al menos la manera en que las escuelas podrán proporcionar una forma realmente valiosa de abordarlo, es brindando información a los niños de una manera accesible para los niños de todo el país. Hay escuelas que pueden adaptar diferentes materiales educativos para los niños que más los necesitan, lo cual es realmente excelente. Algunos de ustedes habrán visto las nuevas directrices sobre relaciones estatutarias, salud y educación sexual publicadas esta semana. Y celebramos enormemente la inclusión de la IA en ese currículo. También nos complace mucho ver muchos otros temas. Como la pornografía y su vínculo con la misoginia, todas esas cosas maravillosas que, como saben, es realmente gratificante ver actualizadas para el mundo en el que vivimos. Y supongo que, en cuanto a lo que las escuelas necesitarán para impartir bien, dado que el éxito dependerá de la ejecución, el Comisionado solicita al Departamento de Educación que lidere una campaña de contratación de profesores especialistas en RHSSE que se integrarán en todo el currículo. Esperamos que esto fomente el pensamiento crítico sobre la IA y el mundo en línea en general, para integrarlo en el aprendizaje diario de los niños, así como en su vida cotidiana. Así que, como saben, estamos muy emocionados por ver el impacto que tendrán estas nuevas directrices.
Pero sí, no, ciertamente creo que también lo agradecemos mucho, y ya sabes, se está empezando a hablar de todo lo correcto y a incluirlo. Tienes razón, la clave está en cómo se implementa y qué apoyo reciben las escuelas, porque está bastante fragmentado y escuchamos mucho de padres e hijos. Algunas personas tienen mucha experiencia aprendiendo sobre estos temas, alfabetización mediática y cómo estar seguros en línea, mientras que no es igual para todos los niños. Entonces, ¿cómo podemos asegurarnos de que se integre y se imponga en todas las comunidades escolares? Quizás podríamos pasar a otra pregunta que teníamos. No sé si quieres añadir algo, Katie, antes de continuar.
Para nada. Creo que lo único que quisiera mencionar, un pequeño detalle, es la disparidad que observamos, que a menudo refleja otras disparidades que vemos entre zonas con alta y baja desventaja. A menudo, en las zonas con altos niveles de desventaja, los recursos educativos se destinan a otras prioridades. Quizás no tienen acceso a los mismos chatbots de IA o a las herramientas que algunas escuelas están desarrollando. Por eso creo que es tan importante que tengamos la orientación correcta para igualar las condiciones.
Sí, absolutamente. Recibimos otra pregunta interesante de alguien que comentó que cada vez se habla más de adultos que usan chatbots como terapeutas sustitutos. Entonces, ¿vemos similitudes con lo que hacen los niños, especialmente los adolescentes? Quizás Elle o Katie quieran...
Sí, puedo intentarlo. Es algo que se planteó en la investigación, especialmente con algunos ejemplos de niños. Algunos ejemplos mostraban consejos o preguntas que buscaban respuestas, algo que un terapeuta tradicional o un adulto de confianza respondería. Creo que es algo poco explorado, y que tiene aplicaciones muy positivas. El NHS ha creado una aplicación que permite contactar con un terapeuta entre sesiones. Si bien no es necesariamente malo si se hace correctamente, creo que aún no hemos llegado al punto de usar chatbots de IA como terapeutas infantiles, y eso es algo que estamos empezando a ver.
Sí, me gustaría hacerme eco de lo que acaba de decir Katie. Es algo que creo que probablemente veremos más a medida que esto avance; los chatbots de IA se integrarán en aún más espacios. Creo que Katie, tal vez... he visto a la persona que hizo las preguntas usar la palabra "sustituto", y me parece muy interesante porque sugiere que no brinda el apoyo completo que daría un terapeuta habitual. Y creo que eso realmente plantea preguntas sobre si este chatbot de IA se está utilizando de esta manera, ¿debería usarse de esta manera? Y si no debería, debería quedar claro que, en realidad, este no es un lugar seguro al que alguien pueda acudir cuando se siente extremadamente vulnerable, ni que debería ser algo fomentado y, de hecho, supongo, celebrado en ese sentido, porque, repito, sería fantástico si hubiera un espacio donde las personas pudieran acceder al apoyo cuando lo necesitan con mucha rapidez. Pero sí, creo que sería un espacio realmente interesante para, supongo, la investigación en términos de salud mental también.
Sí. Creo que comentamos antes en la charla sobre la posibilidad de que ese tipo de niños acudan a estos espacios para recibir ese tipo de asesoramiento, cuando el chatbot de IA no sabe nada de ellos, de su contexto, de su vida familiar, del apoyo que ya reciben y, dependiendo de las preguntas que hagan, cómo responde. ¿Alguien tiene alguna idea sobre cómo abordarlo? Elle, hablaste un poco sobre si lo fomentamos si se hace bien o si no lo fomentamos si aún no tiene la capacidad de comprender mejor esos problemas. Así que, Simon o Caroline, si tienen alguna idea sobre cómo la IA puede mejorar en lo que podría hacer.
Sí, sí. Creo que hay mucho que analizar en todas esas áreas. Lo único que quería decir, y acabo de responder a alguien en uno de los chats, es que, obviamente, estamos hablando de chatbots de IA en este entorno, pero la IA está impulsando una especie de revolución industrial en todos los ámbitos que vemos. Y creo que acabamos de hablar un poco de ello cuando hablamos de las preocupaciones de los niños sobre cómo podría ser su futuro laboral. Y creo que esa es una de esas áreas en las que necesitamos ejemplos más amplios de cómo la IA, no solo como chatbots, sino en otros ámbitos de la industria, la vida laboral y nuestra propia vida diaria, cómo nos va a ayudar, qué tipo de ventajas nos aportará y cómo debería utilizarse como herramienta. Mi hijo tiene TDAH y es un fanático de LEGO. Pero a veces le resulta frustrante porque tiene muchísimas ideas maravillosas y creativas, pero no sabe cómo llevarlas a cabo. Usa los chatbots para comprender cómo desarrollar sus ideas creativas más rápido. Y desde esa perspectiva, es absolutamente brillante. Mi hija acaba de terminar sus exámenes de bachillerato. Usó... ChatGPT como una forma de ayudar a evaluar su preparación para su nivel avanzado de psicología. Así que hay algunas áreas realmente excelentes donde la IA puede agregar beneficios a la educación en ese espacio. Pero creo que debemos verlo más ampliamente que solo en los chatbots y comprender cómo está impulsando esta revolución pseudoindustrial porque lo cambiará absolutamente todo. Y yo, pero no creo que debamos tener miedo de eso porque creo que lo está adoptando. Y volviendo al punto de Elle, ¿cómo logramos que las empresas de tecnología también ayuden a hacerse cargo de ese problema? Um y eso... y eso... no me refiero a problema. Eso no es exactamente a lo que me refiero. Pero porque puede ser una gran oportunidad en ese espacio, pero no es para una organización. No es para que una sola empresa lo haga. Tiene que ser colectivo.
Perdón, Rachel, antes de terminar, solo quiero añadir que sé que llegamos en el momento justo. Para repetir lo que dije antes, necesitamos apoyar las diversas formas de juego de los niños, tanto en línea como fuera de línea. Creo que Simon acaba de decir eso. No le pedí que promocionara LEGO Group. Lo prometo. Pero creo que es un buen ejemplo de lo que intentamos hacer. Cuando compras el primer set de LEGO para tu hijo, estás en el suelo con él. Lo construyes con él. Los padres participan de la misma manera que deberían hacerlo también a través de sus vidas digitales. En cuanto a la IA, podemos sentirnos un poco temerosos, pero si la trabajamos juntos y usamos el juego para generar la confianza que necesitan los padres, las familias y las empresas, nos aseguraremos de integrar los derechos de los niños en todo lo que hacemos, sin considerarlo de forma aislada, sino respetando a los niños tanto en línea como fuera de ella. Sé que a veces sí, disculpen la interrupción.
Bueno, sí, está bien. No, gracias. Muy buenos comentarios. Gracias a todos por sus aportaciones de hoy. Resumiendo, quería retomar mi introducción y pensar en todo lo que hemos hablado. Hay mucho que analizar, y la idea de que el ritmo de cambio en el mundo digital y la seguridad infantil en él es abrumador para los padres. Y creo que, como hemos escuchado hoy, soy solo un aspecto de la vida digital de los niños. Hay mucho que considerar en relación con la IA y el uso que los niños hacen de ella, y asegurarnos de que puedan disfrutarla de forma positiva y segura. Es un esfuerzo colectivo. Creo que todos hemos hablado de que la industria, el gobierno, los padres, las escuelas, todos deben trabajar juntos para asegurar que los niños la adopten de forma positiva. Gracias a todos por asistir hoy. Espero que nuestra investigación haya sido realmente brillante y que el debate de hoy haya arrojado luz sobre este tema y las experiencias de los niños. Espero que podamos afrontar los desafíos a medida que avanzamos juntos. Muchísimas gracias a todos los que participaron. A nuestro equipo interno por el fantástico informe y seminario web de hoy, y a todos nuestros ponentes y panelistas. Katie, Elle, Caroline y Simon, muchísimas gracias por sus reflexiones y observaciones. Ha sido una charla genial. Seguro que podríamos haber dedicado una hora más. Disfruten el resto del día y gracias.
Yo, yo mismo y la IA: el informe completo
Yo, yo mismo y la IA: el informe completo
Comprender y proteger el uso de chatbots de IA por parte de los niñosApoyando la investigación y los recursos
Explore más de nuestra investigación junto con recursos diseñados para padres, cuidadores y profesionales.
Usando inteligencia artificial
Ayude a los padres a aprender sobre IA para apoyar el uso seguro de las herramientas de IA por parte de los niños.
IA generativa en la educación
Explore las perspectivas sobre la IA generativa en la educación tanto de padres como de niños.