Resumen
- Nuestra nueva encuesta a 1,000 niños y 2,000 padres en el Reino Unido muestra cómo un número cada vez mayor de niños (64%) utilizan chatbots de IA para obtener ayuda con todo, desde las tareas escolares hasta consejos emocionales y compañía, y muchos nunca cuestionan la precisión o idoneidad de las respuestas que reciben.
- El informe, “Yo, yo mismo y la IA”, describe cómo muchos niños hablan cada vez más con chatbots de IA como si fueran amigos, a pesar de que muchos de los chatbots de IA más populares no están diseñados para que los niños los usen de esta manera. Más de un tercio (35%) de los niños que los usan afirma que hablar con un chatbot de IA es como hablar con un amigo, mientras que seis de cada diez padres afirman que les preocupa que sus hijos crean que los chatbots de IA son personas reales.
- El informe advierte que los niños vulnerables son los que corren mayor riesgo, ya que la encuesta revela que el 71 % de ellos utilizan chatbots de IA. Una cuarta parte (26 %) de los niños vulnerables que utilizan chatbots de IA afirman que prefieren hablar con un chatbot de IA que con una persona real, y el 23 % afirma que los utilizan porque no tienen a nadie más con quien hablar.
- El informe advierte que los niños están usando chatbots de IA en plataformas que no están diseñadas para ellos, sin las garantías adecuadas, como verificación de edad y moderación de contenido, y pide al Gobierno que aclare cómo los chatbots de IA entran en el ámbito de aplicación de la Ley de Seguridad en Línea.
- Los niños utilizan cada vez más la IA para facilitar sus tareas escolares, y el informe insta a las escuelas a proporcionar una orientación clara y coherente para fomentar el conocimiento y el uso de la IA, incluidos los chatbots, en los niños. Los padres también tienen dificultades para adaptarse al ritmo de la IA y necesitan apoyo para guiar a sus hijos en su uso con confianza y responsabilidad.
Hoy (domingo 13 de julio)th) Hemos publicado un nuevo informe, 'Yo, yo mismo y la IA: comprender y proteger el uso que hacen los niños de los chatbots de IA'.
A medida que los chatbots de IA se integran rápidamente en la vida cotidiana de los niños, el informe explora cómo interactúan con ellos. Si bien el informe destaca cómo las herramientas de IA pueden ofrecer beneficios a los niños, como... Además de ofrecer apoyo educativo y un espacio para hacer preguntas, también advierte que representan riesgos para la seguridad y el desarrollo infantil. La falta de verificación de edad y regulación implica que algunos niños están expuestos a contenido inapropiado.
Nuestra investigación plantea la preocupación de que los niños utilicen los chatbots de IA con fines emocionales, como buscar amistad y consejos, a pesar de que muchos de los chatbots de IA más populares no están diseñados para este fin. El informe advierte que los niños pueden volverse excesivamente dependientes de los chatbots de IA o recibir respuestas inexactas o inapropiadas, lo que podría reducir la probabilidad de que busquen ayuda de adultos de confianza.
Estas preocupaciones se han visto acentuadas por incidentes, como un caso en Florida donde una madre demandó a character.ai, alegando que un chatbot de IA basado en un personaje de Juego de Tronos incurrió en interacciones abusivas y sexuales con su hijo adolescente y lo incitó a suicidarse. En el Reino Unido, un diputado informó recientemente al Parlamento sobre una reunión extremadamente angustiosa con un elector cuyo hijo de 12 años presuntamente había sido manipulado por un chatbot en la misma plataforma.
El informe argumenta que el Gobierno y la industria tecnológica deben reexaminar si las leyes y regulaciones vigentes protegen adecuadamente a los niños que utilizan chatbots de IA. Existe un creciente reconocimiento de que podría ser necesaria mayor claridad, directrices actualizadas o nueva legislación. En particular, solicitamos al Gobierno que imponga estrictos requisitos de garantía de edad a los proveedores de chatbots de IA, para garantizar que cumplan con los requisitos de edad mínima y creen experiencias apropiadas para la edad de los niños.
Para fundamentar nuestra investigación, encuestamos a una muestra representativa de 1,000 niños del Reino Unido de entre 9 y 17 años y a 2,000 padres de niños de entre 3 y 17 años, y organizamos cuatro grupos de discusión con ellos. Se realizaron pruebas de usuario con tres chatbots de IA: ChatGPT, Snapchat, My AI y character.ai, y se crearon dos 'avatares' para simular la experiencia de un niño en estos.
Los hallazgos clave de esta investigación incluyen:
- Los niños están utilizando los chatbots de IA de formas diversas e imaginativas. El 42 % de los niños de 9 a 17 años que han usado chatbots de IA los han usado para apoyar sus tareas escolares. Los niños los usan para repasar, apoyar la escritura y practicar habilidades lingüísticas. Muchos agradecen las respuestas y explicaciones instantáneas.
- Búsqueda de asesoramiento: Casi una cuarta parte (23%) de los niños que han usado un chatbot de IA ya lo han usado para pedir consejo, desde qué ponerse o para practicar conversaciones con amigos hasta temas más importantes como la salud mental. Algunos niños que han usado chatbots de IA (15%) afirman que prefieren hablar con un chatbot que con una persona real.
- Compañerismo: Los niños vulnerables, en particular, usan chatbots de IA para conectar y sentirse cómodos. Uno de cada seis (16%) niños vulnerables afirmó usarlos porque quería un amigo, y la mitad (50%) afirmó que hablar con un chatbot de IA se siente como hablar con un amigo. Algunos niños usan chatbots de IA porque no tienen a nadie más con quien hablar.
- Respuestas inexactas e insuficientes: Los niños compartieron ejemplos de respuestas engañosas o inexactas, lo cual fue corroborado por nuestras propias pruebas de usuario. En ocasiones, los chatbots de IA no brindaron a los niños consejos claros y completos en sus respuestas. Esto es especialmente preocupante, ya que el 58 % de los niños que han usado chatbots de IA afirmaron que creen que usar un chatbot de IA es mejor que buscar por sí mismos.
- Alta confianza en el asesoramiento: Dos de cada cinco (40%) niños que han usado chatbots de IA no tienen ninguna preocupación sobre seguir los consejos de un chatbot, y un 36% adicional no está seguro de si debería preocuparse. Esta cifra es aún mayor en el caso de los niños vulnerables. Esto ocurre a pesar de que, en ocasiones, los chatbots de IA ofrecen consejos contradictorios o poco alentadores.
- Exposición a contenidos nocivos: Los niños pueden estar expuestos a material explícito e inapropiado para su edad, incluido contenido misógino, a pesar de que los proveedores de chatbots de inteligencia artificial prohíben este contenido para usuarios infantiles en sus términos de servicio.
- Límites borrosos: Algunos niños ya perciben los chatbots de IA como si fueran humanos: el 35 % de los niños que los usan afirman que hablar con uno es como hablar con un amigo. A medida que las respuestas de los chatbots de IA se vuelven aún más humanas, los niños podrían pasar más tiempo interactuando con ellos y volverse más dependientes emocionalmente. Esto es preocupante, ya que uno de cada ocho niños (12 %) usa chatbots de IA porque no tiene con quién hablar, lo que eleva a casi uno de cada cuatro niños (23 %) a la categoría de vulnerables.
- Se está dejando que los niños naveguen por los chatbots de IA por su cuenta o con aportes limitados de adultos de confianza. El 62 % de los padres afirma estar preocupado por la precisión de la información generada por IA; sin embargo, solo el 34 % ha hablado con sus hijos sobre cómo determinar la veracidad del contenido generado por IA. Solo el 57 % de los niños afirma haber hablado con sus profesores o con la escuela sobre IA, y los niños afirman que los consejos de los profesores en las escuelas también pueden ser contradictorios.
El informe también formula recomendaciones para todo el sistema para apoyar y proteger a los niños que utilizan chatbots de IA, entre ellas:
- Experiencia adoptar un enfoque de seguridad por diseño para crear chatbots de IA apropiados para la edad que reflejen las necesidades de los niños, con controles parentales integrados, señales confiables y funciones de alfabetización mediática.
- Gobierno proporcionar una guía clara sobre cómo los chatbots de IA están cubiertos por la Ley de Seguridad en Línea, exigir una garantía de edad efectiva para los proveedores de chatbots de IA que no estén diseñados para niños y garantizar que la regulación se mantenga al día con las tecnologías de IA en rápida evolución.
- Gobierno apoyando a las escuelas integrar la IA y la alfabetización mediática en todas las etapas clave, incluida la capacitación de docentes y el ofrecimiento de escuelas, padres y niños de una orientación clara sobre el uso apropiado de la IA.
- Padres y cuidadores recibir apoyo para guiar el uso de IA por parte de sus hijos y tener conversaciones sobre qué son los chatbots de IA, cómo funcionan y cuándo usarlos, incluido cuándo buscar apoyo en el mundo real.
- Responsables políticos, investigación e industria centrar las voces de los niños en el desarrollo, la regulación y la gobernanza de los chatbots de IA e invertir en investigaciones a largo plazo sobre cómo la IA emocionalmente sensible puede moldear la infancia.
Rachel Huggins, codirectora ejecutiva de Internet Matters, afirmó:
Los chatbots de IA se están integrando rápidamente en la infancia, con un uso que ha crecido drásticamente en los últimos dos años. Sin embargo, la mayoría de los niños, padres y escuelas actúan a ciegas y carecen de la información ni las herramientas de protección necesarias para gestionar esta revolución tecnológica de forma segura.
Si bien la IA ofrece claros beneficios, nuestra investigación revela cómo los chatbots están cambiando la percepción que los niños tienen de la amistad. Hemos llegado rápidamente a un punto en el que los niños, y en particular los vulnerables, perciben a los chatbots de IA como personas reales y, por lo tanto, les piden consejos sensibles y motivados por las emociones. También es preocupante que a menudo no cuestionen lo que les dicen sus nuevos "amigos".
“Debemos prestar atención a estas señales de alerta temprana y tomar medidas coordinadas para asegurarnos de que los niños puedan explorar el potencial de los chatbots de IA de forma segura y positiva y evitar el evidente potencial de daño.
Millones de niños en el Reino Unido utilizan chatbots de IA en plataformas no diseñadas para ellos, sin las medidas de protección, educación ni supervisión adecuadas. Padres, cuidadores y educadores necesitan apoyo para guiar a los niños en el uso de la IA. La industria tecnológica debe adoptar un enfoque de seguridad desde el diseño para el desarrollo de chatbots de IA, mientras que el Gobierno debe garantizar que nuestras leyes de seguridad en línea sean lo suficientemente sólidas como para afrontar los desafíos que esta nueva tecnología está planteando a la vida de los niños.
Derek Ray-Hill, director ejecutivo interino de la Internet Watch Foundation, dijo:
“Este informe plantea algunas preguntas fundamentales sobre la regulación y la supervisión de estos chatbots de IA.
El hecho de que los niños puedan encontrarse con contenido explícito o inapropiado para su edad a través de chatbots de IA aumenta el riesgo de daños en un espacio que, como sugiere nuestra evidencia, ya está resultando un desafío para los usuarios jóvenes. Los informes sobre la posible existencia de acoso sexual a través de esta tecnología son particularmente preocupantes.
Los niños merecen un internet seguro donde puedan jugar, socializar y aprender sin exponerse a peligros. Necesitamos que el Gobierno y las empresas tecnológicas tomen medidas urgentes para integrar la seguridad desde el diseño en los chatbots de IA antes de que estén disponibles.