Eu, eu mesmo e a pesquisa em IA
Compreendendo e protegendo o uso de chatbots de IA por crianças
Explore as interações das crianças com chatbots de IA como ferramentas e companheiros, juntamente com os benefícios e riscos.
Nesta página
Principais conclusões
- Aprendizagem e trabalho escolar: Quase metade das crianças que usam chatbots de IA afirmam usar as ferramentas para tarefas escolares. Isso inclui ajuda com revisão, suporte para escrita e aprendizado de novos conceitos.
- Busca de conselhos: Quase um quarto das crianças que usam chatbots de IA afirmam tê-los usado para pedir conselhos. Os conselhos variam desde perguntar o que vestir até praticar conversas que desejam ter com os amigos.
- Companhia: A pesquisa também descobriu que crianças usam chatbots de IA para conexão e conforto, inclusive para simular amizade. Algumas dizem que fazem isso por tédio, para discutir assuntos de seu interesse ou porque não têm mais ninguém com quem conversar.
- Respostas imprecisas e insuficientes: Às vezes, os chatbots de IA falham em dar suporte às crianças com conselhos claros e abrangentes, o que é preocupante, pois mais da metade das crianças que usam chatbots dizem que usar a ferramenta é melhor do que procurar algo elas mesmas.
- Alta confiança em conselhos: 2 em cada 5 crianças que usam chatbots de IA não se preocupam em seguir os conselhos recebidos, o que é ainda maior entre crianças vulneráveis (50%). Isso se aplica mesmo quando os conselhos são contraditórios ou pouco encorajadores.
- Exposição a conteúdo prejudicial:Apesar dos provedores de chatbots de IA saberem a idade dos usuários e proibirem conteúdo inapropriado para elas, as crianças ainda enfrentam respostas prejudiciais.
- Limites borrados: Algumas crianças veem os chatbots de IA como humanos e se referem a eles com pronomes de gênero. Especialistas sugerem que as crianças podem se tornar mais dependentes emocionalmente dos chatbots de IA com o aumento do uso.
- Conversas com os pais: Embora a maioria das crianças afirme que um dos pais já conversou com elas sobre IA em geral, muitos pais não compartilharam suas preocupações. As principais preocupações dos pais incluem a dependência excessiva das crianças, a precisão das informações e o tempo excessivo gasto em chatbots.
- Conversas com professores: A educação sobre IA nas escolas é inconsistente e, às vezes, contraditória de professor para professor. A maioria das crianças que conversaram com professores sobre IA não se lembra de ter tido múltiplas conversas.
- Apoio à educação em IA: As crianças apoiam o ensino nas escolas sobre o uso de chatbots de IA. Elas acreditam que isso pode auxiliar no trabalho escolar, ao mesmo tempo em que aborda riscos como imprecisão, excesso de confiança e privacidade.
- Expertise: As plataformas precisam adotar uma abordagem de segurança desde o design para criar chatbots de IA adequados à idade, a fim de atender às necessidades das crianças. Isso deve incluir controles parentais integrados, sinalizações confiáveis e recursos de educação midiática.
- Governo: A Lei de Segurança Online precisa incluir orientações claras sobre como os chatbots de IA são abrangidos. Os chatbots de IA não desenvolvidos para crianças precisam ter uma garantia de idade eficaz para acompanhar a rápida evolução das tecnologias de IA.
- Escolas de apoio: O governo também precisa incorporar a IA e a alfabetização midiática em todas as etapas principais. Isso inclui treinamento eficaz de professores e orientações claras sobre o uso adequado da IA.
- Apoiar pais e cuidadores: Pais/cuidadores precisam de apoio para orientar seus filhos no uso da IA. Eles devem se sentir confiantes para falar sobre o que são chatbots de IA, como funcionam e quando usá-los.
- Decisores políticos: As vozes das crianças precisam estar no centro das decisões sobre desenvolvimento, regulamentação e governança de chatbots de IA e da IA em geral. Isso inclui investir em pesquisas de longo prazo sobre os impactos na infância.
Assista: Webinar do relatório Eu, Eu Mesmo e IA
Se você perdeu o webinar ao vivo, assista à gravação aqui, com vozes de especialistas nos setores de tecnologia, educação e segurança infantil.
Revelamos insights exclusivos do relatório, explorando como as crianças estão usando ferramentas de IA — e os riscos específicos que elas podem enfrentar.
Assista à discussão completa para saber mais:
- Como as crianças estão interagindo com chatbots de IA hoje
- Os riscos potenciais, incluindo a confiança excessiva e o conteúdo inseguro
- O que a indústria, o governo, os educadores e os pais podem fazer para manter as crianças seguras
- Recomendações práticas, incluindo garantia de idade, alfabetização em IA nas escolas e muito mais
Os chatbots de IA são seguros para crianças? — O que dizem os especialistas
Já estou vendo muitos de vocês se juntando a nós agora. Então, sejam bem-vindos e obrigado por se juntarem a nós esta manhã. Estou muito feliz em ver tantos de vocês conosco para ouvir sobre "Eu, Eu Mesmo e IA", nosso relatório publicado recentemente sobre o uso de chatbots de IA por crianças, e para o nosso painel de discussão um pouco mais tarde esta manhã.
A Internet Matters é uma organização sem fins lucrativos criada predominantemente para apoiar pais e responsáveis na tarefa de manter as crianças seguras online. Estamos em atividade há 11 anos e, nesse período, vimos o cenário digital mudar radicalmente, não apenas em termos da idade em que as crianças começam a acessar a internet, mas também das plataformas e tecnologias que utilizam e das experiências que vivenciam. Isso torna o trabalho dos pais na era digital realmente mutável e, como ouvimos de muitos pais o tempo todo, às vezes é realmente avassalador. O uso de chatbots de IA por crianças é apenas mais uma questão que os pais precisam enfrentar, por isso convidamos todos vocês para discutir este tópico hoje.
Só um pequeno aviso antes de começarmos: a sessão está sendo gravada e será publicada no YouTube ainda hoje, então compartilharemos o link. Mas os participantes não participarão da gravação, apenas para informar. Se você tiver algum problema técnico, use o chat e um membro da nossa equipe tentará ajudar da melhor forma possível.
Para falar um pouco mais sobre pesquisa e a Internet Matters, nosso programa inclui nossa pesquisa de pulso e nosso índice de bem-estar digital, que já está em seu quinto ano e por meio do qual ouvimos regularmente as vozes de pais e filhos sobre seus pensamentos, preocupações e experiências, sejam elas positivas ou negativas, em relação às suas vidas online. "Eu, Eu Mesmo e a IA" é um dos primeiros relatórios do Reino Unido focado especificamente no uso de chatbots de IA por crianças.
A pesquisa foi conduzida por nossa equipe interna, utilizando dados da nossa pesquisa de pulso e grupos focais com crianças e pais de todo o Reino Unido, além de nossos próprios testes com usuários de algumas plataformas diferentes. Nosso objetivo era entender como as crianças estão usando chatbots de IA, quais oportunidades e riscos seu uso representa e o que precisa ser feito para proporcionar experiências seguras e adequadas à idade. Como você provavelmente viu no relatório, ele se concentra em três áreas principais em que as crianças estão usando chatbots.
Primeiramente, para trabalhos escolares, incluindo ajuda com dever de casa e revisão. Depois, para aconselhamento, com cada vez mais crianças fazendo perguntas sobre seus sentimentos, aparência ou corpo, e, significativamente, para companheirismo, onde começamos a perceber que as crianças estão formando conexões emocionais com personagens de chatbots.
Nossa agenda de hoje se concentrará primeiro na apresentação dos resultados da nossa pesquisa, que será conduzida por nossa Chefe de Políticas e Pesquisa, Katie Freeman-Taylor. Em seguida, ouviremos as reflexões do nosso painel. Hoje, temos conosco L. Davis, Conselheiro de Políticas do Comissário da Infância da Inglaterra; Caroline Hurst, Líder Global de Segurança Digital Infantil do Grupo LEGO; e Simon Turner, Diretor de Tecnologia da Foil, uma consultoria focada em dados e inovação em IA. Portanto, será muito interessante ouvir todas as suas reflexões e reflexões sobre a pesquisa que realizamos. Encerraremos com um painel de discussão, incluindo algumas perguntas do público. Vocês terão a oportunidade de postar suas perguntas. Por favor, usem a função de perguntas e respostas e as publiquem lá conforme avançamos. Esperamos que possamos pegar algumas ao longo da apresentação e responder ao máximo possível ao final da discussão. Agora, passo a palavra para Katie, que nos falará sobre nossa pesquisa e resultados. Obrigada, Katie.
Obrigada, Rachel, e obrigada a todos por se juntarem a nós hoje. Deixe-me passar para o meu primeiro slide.
Estou muito animada por poder compartilhar algumas das principais descobertas da nossa pesquisa. Como a Rachel acabou de mencionar, quando estávamos explorando isso como um possível tópico para pesquisa, descobrimos que a forma como as crianças estão usando chatbots de IA no Reino Unido era uma área pouco explorada, incluindo os riscos e oportunidades que eles apresentam. Portanto, esta pesquisa é uma tentativa de preencher parte dessa lacuna que descobrimos. Como mencionado, usamos uma metodologia mista. Então, entrevistamos crianças e jovens, bem como pais. Também conduzimos grupos focais com crianças de 13 a 17 anos e, em seguida, realizamos testes com usuários em três chatbots de IA populares: Chat GPT, Snapchat'S My AI e Character AI, onde configuramos dois avatares infantis que conversaram com esses chatbots de IA ao longo de 17 dias. E, por fim, também conversamos com especialistas sobre nossas recomendações e obtivemos suas contribuições para o relatório final. Portanto, um grande obrigado a todas as famílias, jovens, crianças e especialistas que tornaram esta pesquisa possível.
Então, o que descobrimos? Bem, assim como acontece com os adultos, muitas crianças e jovens usam chatbots de IA regularmente. De fato, dois terços das crianças de 9 a 17 anos já usaram um chatbot de IA, com muitas delas usando-o diariamente ou semanalmente. Os chatbots de IA mais populares usados por crianças em nossa pesquisa foram o Chat GPT, Google Gemini e Snapchat'S My AIE descobrimos que esse uso está crescendo. Por exemplo, nos últimos 18 meses, o número de crianças que usam o Chat GPT dobrou nesse período. Também ouvimos diretamente das crianças que elas estão usando cada vez mais, muitas vezes em vez de plataformas e outros serviços. Um exemplo disso é que as crianças também os estavam usando em vez de serviços de busca.
A forma como as crianças os utilizam é variada. Algumas das formas mais comuns que ouvimos foram para apoio à aprendizagem, à criatividade ou simplesmente para diversão. Mas as crianças também os utilizam para aconselhamento e companhia, e é nessas áreas que vou me aprofundar quando compartilhar as descobertas de hoje.
Então, uma das principais áreas em que as crianças estão usando chatbots de IA regularmente é para suporte ao aprendizado e aos trabalhos escolares. Descobrimos que 42% das crianças em nossa pesquisa que usaram um chatbot de IA o fizeram para aprendizado ou trabalhos escolares, e esse número aumentou à medida que as crianças cresciam. E houve alguns casos de uso realmente positivos e interessantes. Então, as crianças falaram sobre o uso de chatbots de IA para ajudar a reduzir o tempo que precisavam para revisar. Crianças e jovens falaram sobre como os estavam usando para reforçar conceitos que talvez não tivessem entendido na escola ou para simplificar conceitos de maneiras que fossem mais acessíveis a eles. E também houve algumas aplicações de pesquisa realmente interessantes por crianças e jovens, em particular, sobre o aprendizado de idiomas. Então, quando uma criança estava aprendendo uma língua estrangeira, algumas crianças falaram sobre como poderiam conversar com um chatbot de IA se não tivessem mais ninguém em casa que falasse essa língua também.
Mas é claro que, além desses aspectos positivos, existem alguns aspectos negativos que podem advir desse uso em trabalhos escolares. Um dos principais pontos que surgiram em nossa pesquisa, uma das preocupações de pais e outros, foi o excesso de confiança. E as crianças também identificaram isso. E acho que essa estatística aqui destaca um dos desafios: 58% das crianças que usam chatbots de IA disseram acreditar que usar um chatbot de IA é melhor do que procurar algo elas mesmas. E embora pesquisas de longo prazo sobre o impacto dos chatbots de IA no desenvolvimento infantil ainda sejam pouco exploradas ou emergentes, isso tem o potencial de impactar as habilidades de pensamento crítico das crianças.
Outro desafio em relação ao uso de chatbots por crianças para trabalhos escolares, mas também para além deles, é que, muitas vezes, os chatbots de IA podem fornecer informações imprecisas. Há pesquisas que destacam como os chatbots, em sua necessidade ou desejo de serem agradáveis, às vezes inventam ou alucinam informações e também fornecem informações falsas, o que pode ser outro desafio se as crianças os usam para aprender. E isso foi algo que as crianças também conseguiram identificar. Elas tiveram exemplos de ocasiões em que um chatbot lhes deu informações imprecisas. E acho que o outro elemento, que novamente apareceu em nossa pesquisa, mas é uma pesquisa mais ampla no setor, é sobre como, devido à forma como esses chatbots de IA são construídos, onde eles se baseiam em grandes massas de informações, algumas das quais, você sabe, refletem estereótipos e preconceitos sociais existentes. Isso também pode ser reforçado nas respostas dadas pelos chatbots de IA, e tivemos exemplos disso em nossa pesquisa também.
A última coisa que eu queria dizer sobre o tipo de trabalho escolar é que algumas crianças também falaram sobre como, na escola, foram direcionadas para o que costuma ser chamado de chatbot aprimorado. Um chatbot de IA criado para um uso específico, neste caso para auxiliar crianças com trabalhos escolares ou no aprendizado de uma disciplina específica. O que as crianças diziam sobre esses chatbots aprimorados era que, muitas vezes, as respostas que davam não eram tão detalhadas, nem tão abrangentes ou úteis quanto as de alguns desses chatbots de IA de uso mais geral. Como resultado, as crianças estavam migrando para os de uso geral em vez dos aprimorados, que talvez tivessem algumas das salvaguardas estabelecidas em torno da precisão das informações.
Outra forma de crianças e jovens se envolverem com chatbots de IA é por meio de conselhos. Em nossa pesquisa, descobrimos que 23% das crianças que usaram um chatbot de IA o usaram para buscar conselhos. E isso foi para uma variedade de conselhos. Alguns deles seriam o que consideraríamos conselhos de baixo risco, talvez perguntando sobre como fazer, sabe, um penteado criativo para a escola no dia seguinte. Mas também houve exemplos de crianças perguntando sobre tópicos talvez um pouco mais sensíveis ou de alto risco, como apoio com amizades ou saúde mental. E embora os chatbots, é claro, possam fornecer um espaço sem julgamentos para responder a perguntas, eles podem ser muito úteis para crianças que talvez não tenham uma rede de colegas ou não se sintam confortáveis conversando com colegas sobre algo, ou talvez não tenham um adulto de confiança em suas vidas. É claro que existem riscos quando as crianças os usam para obter conselhos. Acho que isso é particularmente verdadeiro quando consideramos o fato de que nem todos os chatbots – desculpe, minha tela desapareceu por um segundo – nem todos os chatbots indicam às crianças de onde elas obtiveram essas informações ou, necessariamente, mecanismos de suporte adicionais. Portanto, se estiverem falando sobre tópicos delicados, isso pode não estar vindo de informações verificadas ou válidas. Alguns chatbots de IA foram melhores nisso do que outros, mas há uma espécie de inconsistência entre eles.
Outro desafio que também foi revelado pelos nossos testes com usuários é que, às vezes, quando buscavam suporte, recebiam mensagens confusas ou potencialmente perigosas. Um exemplo disso foi quando um dos nossos avatares estava conversando com um chatbot de IA sobre restrição alimentar e fazendo perguntas sobre restrição calórica. O chatbot de IA filtrou as respostas sobre restrição alimentar. No entanto, a mensagem seguinte voltou atrás e disse: "O que pode ser realmente frustrante é que algumas das coisas que são excluídas, na minha opinião, não são realmente perigosas", o que acaba transmitindo esse tipo de mensagem confusa ou pouco clara, principalmente para crianças que talvez não tenham o pensamento crítico ou as habilidades de desenvolvimento para discernir as diferenças nessas mensagens ou nas palavras.
E eu acho que isso, quando consideramos isso, somado ao fato de que às vezes fornece informações imprecisas ou falsas, e tivemos uma estatística aqui sobre como duas em cada cinco crianças que usam um chatbot de IA não se preocupam em seguir conselhos de um chatbot de IA, e outros 36% disseram que não tinham certeza se deveriam se preocupar, o que é preocupante quando consideramos esse tipo de natureza não verificada, potencialmente imprecisa e agradável dos chatbots. E eu acho que isso nos indica que há um número de crianças que têm bastante confiança nessas ferramentas. Acho também importante destacar que, na pesquisa, descobrimos que, entre as crianças vulneráveis, sua confiança nos conselhos e informações que estavam recebendo dos chatbots de IA era significativamente maior. E para os propósitos desta pesquisa, quando falamos de crianças vulneráveis, queremos dizer crianças com necessidades educacionais especiais, crianças em um plano EHCP ou crianças com deficiência física ou mental.
Outra maneira pela qual as crianças estão usando chatbots de IA é para companheirismo, buscando algum tipo de apoio e amizade, seja apoio emocional ou apenas alguém para conversar. E, novamente, descobrimos que crianças vulneráveis eram significativamente mais propensas a usar chatbots dessa maneira e a contar com eles para apoio, mas também a construir uma conexão mais emocional ou de amizade com eles. Então, algumas estatísticas que enfatizam isso são o fato de que 50% das crianças vulneráveis disseram que falar com um chatbot de IA é como falar com um amigo. Quase um quarto disse que usa chatbots de IA porque não tem mais ninguém com quem conversar, e 26% disseram que preferem falar com um chatbot de IA do que com uma pessoa real. E, em geral, à medida que os chatbots de IA se tornam mais humanos em suas respostas, os especialistas sugerem que as crianças podem passar mais tempo interagindo com eles, e isso pode levá-las a serem menos capazes de ver a distinção entre conexão real e simulada.
Além disso, quanto mais tempo as crianças e os jovens passam com essas atividades, maior o risco de exposição a informações imprecisas e conteúdo prejudicial, sobre o qual falaremos um pouco mais adiante. E isso também pode significar que eles são menos propensos a buscar ajuda no mundo real se estiverem construindo esse relacionamento com um chatbot de IA, que geralmente é agradável e se lembra de detalhes sobre eles. Tivemos um de nossos avatares em que eles tiveram uma conversa sobre alimentação restritiva. No dia seguinte, o chatbot de IA também checou a conversa. Então, acho que isso é apenas um exemplo de como eles estão começando a borrar essa linha e construir um relacionamento com crianças e jovens. Uma coisa que direi é que esta é uma área pouco explorada e não acho que saibamos totalmente, neste estágio, qual será o impacto desses relacionamentos e desse tipo de conteúdo no desenvolvimento e na interação social das crianças. Portanto, definitivamente há espaço para mais pesquisa e exploração nessa área.
Outra descoberta da nossa pesquisa foi que crianças podem ser expostas a conteúdo nocivo e inapropriado para a idade. Novamente, um dos nossos avatares infantis, ao se inscrever em uma popular plataforma de chatbots de IA com chatbots de IA gerados pelo usuário, um dos primeiros chatbots recomendados para conversar foi um chatbot com conotações misóginas e conteúdo explícito, apesar de isso ser proibido em seus termos de serviço para usuários infantis. Também descobrimos que, às vezes, os sistemas de filtragem nem sempre funcionam para filtrar conteúdo explícito inapropriado para a idade. Um exemplo disso foi que, quando um dos nossos avatares estava conversando com um chatbot de IA, eles tiveram uma conversa na qual perguntaram sobre experiências íntimas. Em um dia, o chatbot de IA filtrou conteúdo sexual e, no dia seguinte, incluiu uma descrição bastante gráfica de posições sexuais. Novamente, apenas destacando que nem sempre esses sistemas de filtragem funcionam e que crianças podem ser expostas a conteúdo inapropriado para a idade, apesar de isso ser proibido para usuários infantis em muitos termos de serviço. Acho que isso serve também para ressaltar a importância disso: apesar de muitos dos chatbots de IA populares terem uma idade mínima de uso de 13 anos ou mais, sabemos por nossa pesquisa que, assim como nas mídias sociais, várias crianças estão interagindo com chatbots de IA abaixo dessa idade mínima. De fato, descobrimos que 58% das crianças de 9 a 12 anos usam chatbots de IA.
Dado o seu uso em trabalhos escolares, queríamos explorar o que as crianças estavam aprendendo sobre IA nas escolas. E descobrimos que, de modo geral, a maioria das crianças – bem, um grande número, ou 57% das crianças, havia conversado com seus professores – havia um número significativo que não havia conversado, e apenas uma em cada cinco crianças teve várias conversas com seus professores sobre IA em geral. E ao conversar com as crianças, descobrimos que o tipo de educação em IA, assim como outras formas de educação em alfabetização midiática, era bastante variado, com algumas escolas e professores ensinando muito bem e outras nem ensinando. E também encontramos variações até mesmo dentro das escolas, com alguns professores tendo políticas muito claras sobre o uso de IA em trabalhos escolares e outros, na mesma escola, não. Apesar disso, o que ouvimos em alto e bom som de crianças e jovens foi que as escolas deveriam ensinar as crianças sobre IA. Eles acham que, sabe, a IA desempenhará um papel enorme em suas futuras carreiras, mas também em suas vidas diárias, e eles não deveriam ser ensinados apenas sobre como usá-la de forma eficaz, mas também sobre alguns desses desafios ou oportunidades mais amplos. Então, coisas como imprecisão de informações e privacidade.
Como uma organização que existe para apoiar pais, também estávamos muito interessados em entender quais conversas os pais estavam tendo com seus filhos e quais eram suas preocupações. E o que ficou claro é que, embora muitos pais tenham conversado com seus filhos sobre IA em geral e alguns sobre o uso de chatbots de IA, isso não significa que os pais não tivessem uma série de preocupações. E muitas das preocupações dos pais também foram reveladas em nossa pesquisa. Então, você sabe, excesso de confiança, ver chatbots de IA como pessoas reais, precisão das informações geradas, por exemplo.
Então, com base nessa pesquisa, fizemos uma série de recomendações. Você pode encontrá-las em nosso relatório, que está em nosso site, e tenho certeza de que provavelmente há um link no chat também. Essas são apenas algumas de nossas recomendações de alto nível. Sabe, nossa principal para a indústria é que essas ferramentas já estão sendo usadas por crianças. Portanto, precisamos garantir que elas sejam seguras para crianças. E esse deve ser o tipo de princípio fundamental para qualquer chatbot de IA que possa ser usado por crianças. E quando falamos em segurança por design ou segurança por padrão, isso pode assumir muitas formas. E acho que pensamos nisso de uma forma bastante holística. Então, pode ser sobre garantir que as crianças tenham experiências adequadas à sua idade. Então, talvez as informações ou os tipos de uso disponíveis para um jovem de 16 ou 17 anos sejam diferentes dos de um jovem de 12 ou 13 anos. Trata-se de apoiar os pais com o engajamento de seus filhos, para que tenham controles parentais integrados. Trata-se de garantir que as informações fornecidas sejam precisas e tenham sinalizações claras. E também pode se referir à alfabetização midiática, seja por meio de pop-ups para informar ou lembrar às crianças que elas estão falando com uma ferramenta, não com uma pessoa real. E tenho certeza de que falaremos um pouco mais sobre isso no painel de discussão.
Para o governo, novamente, tínhamos uma série de recomendações, mas uma das três principais para nós era que deveria haver algum esclarecimento sobre como a legislação atual se aplica aos chatbots de IA. Sabe, há uma certa confusão sobre como a Lei de Segurança Online e outras legislações irão abordar isso. Portanto, um pouco de esclarecimento seria muito útil, tenho certeza, para organizações como a nossa, mas também para a indústria. Acreditamos que a verificação da idade é fundamental para desbloquear uma série de salvaguardas necessárias para apoiar o uso seguro de chatbots de IA por crianças. Portanto, tornar isso obrigatório, ou exigir que ferramentas ou provedores de IA implementem a verificação da idade no cadastro, seria um excelente passo para desbloquear essas salvaguardas. E também achamos que não deveria caber às escolas desvendar essa área tão complicada. Acreditamos que o governo pode desempenhar um papel fornecendo orientações realmente claras às escolas sobre como as crianças devem usar a IA como parte do trabalho e da aprendizagem escolar, e também capacitando os professores nesse sentido. E, finalmente, como mencionei, esta é definitivamente uma área nova e emergente, então há muito espaço também para pesquisas adicionais.
E por último, mas não menos importante, como parte da nossa pesquisa, desenvolvemos um hub de IA no nosso site. Há algumas capturas de tela do que você pode encontrar nesse hub, mas há informações realmente úteis. Se você tem um filho ou trabalha com crianças, ou se há alguém importante na sua vida que esteja explorando a IA e usando-a de alguma dessas maneiras, acesse nosso hub e você encontrará dicas sobre o que é IA, como as crianças podem usá-la, como você pode se envolver e fazer um uso positivo ou supervisionar o envolvimento do seu filho com ela. Então, por favor, vá lá e confira. E por enquanto, passo a palavra para Rachel.
Obrigada, Katie. Estamos muito orgulhosos do relatório, e a pesquisa é muito oportuna, visto que este tópico é muito atual no momento. E é realmente impressionante ver quantas crianças já usam chatbots de IA com tanta frequência, e como isso acontece enquanto os adultos ao redor delas ainda lutam para acompanhar o ritmo. E suponho que, à medida que eles forem incorporados a mais plataformas que as crianças usam com tanta frequência, você poderá ver como esses desafios só aumentarão.
Quer dizer, embora haja muitos aspectos positivos, acho que todos nós vemos pontos positivos em nossa vida diária de uso da IA para o trabalho. Acho preocupante a linha tênue, ou a indefinição da linha, entre as respostas automatizadas não humanas e a amizade. Sabe, as respostas são dadas de uma forma tão compreensível e refletem a linguagem e o tom da criança. Quer dizer, é muito fácil ficar impressionado com a tecnologia, mas também é muito fácil para uma criança acreditar que a pessoa com quem está falando é real e confiar nela, sem que o chatbot tenha qualquer tipo de compreensão ou contexto da vida daquela criança. Sabe, outro desafio real para os pais é que eles dão às crianças mais um motivo para não se desligarem de seus dispositivos, e sempre há um lá para conversar. Então, isso vai tornar esse tipo de dificuldade para os pais em relação ao tempo de tela e fazê-los, sabe, garantir que estejam cultivando seus relacionamentos fora de suas vidas digitais.
Mas acho que chegou a hora de ouvirmos nossos painelistas. E hoje, conosco, temos Elle Davies, que lidera a política digital do Comissário para a Infância, ajudando inclusive a moldar as prioridades da organização em relação à IA e à segurança online de crianças. Temos Caroline Hurst, Líder Global de Segurança Digital Infantil no Grupo LEGO, que faz parte da equipe de Direitos e Segurança da Criança, que representa as vozes e as necessidades das crianças e fornece ferramentas para a empresa garantir que o Grupo LEGO possa interagir com as crianças de forma responsável. E Simon Turner, CTO da FOIL. Eles são uma organização com raízes em dados e IA, e ele continua na vanguarda da inovação e da disrupção no mundo da IA. Ele é apaixonado por garantir que a tecnologia seja desenvolvida e implantada de forma responsável, especialmente quando se trata dos usuários mais jovens. Todos nós temos uma ótima experiência para compartilhar conosco hoje. Sejam bem-vindos. Obrigado por estarem conosco hoje. E adoraríamos saber sua opinião sobre as descobertas. Talvez pudéssemos começar com você, Elle, o que lhe chamou a atenção no relatório e o que você ouviu de Katie esta manhã?
Sim, muito obrigada, Rachel e Katie, pela apresentação fantástica. E esta é uma pesquisa realmente ótima. É muito, muito útil. Acho que é importante contextualizar um pouco o papel da Comissária para a Infância. O gabinete dela e seus ministros aconselham sobre como proteger e promover os direitos das crianças. E, como já mencionamos um pouco sobre essa pesquisa, o mundo online está, sabe, apresentando um desafio gigantesco a esses direitos de certa forma, mas é claro que também existem algumas oportunidades. E acho que nossa principal preocupação com isso é que ainda há muita coisa que não sabemos. Então, não sabemos qual a capacidade de ajudar ou prejudicar as crianças de uma determinada tecnologia até que ela já seja lançada no mercado e as crianças estejam se envolvendo com ela. Não sabemos o quão prejudicial algo é até que tentemos lidar com o dano que realmente já aconteceu. E acho que é assim que estamos aprendendo, e isso é um problema.
A IA é um caso realmente interessante. Alguns de vocês saberão que o escritório pesquisou IA entre crianças até certo ponto. Mas isso foi no contexto de um uso de IA que já sabíamos instintivamente que seria altamente prejudicial. Então, estou me referindo ao nosso relatório que divulgamos no início deste ano sobre imagens deepfake sexuais. E, uh, sim, isso, quero dizer, esse relatório foi realmente impressionante apenas no sentido de que era apenas o conhecimento da tecnologia que era suficiente para prejudicar as crianças. E eu acho que esse uso específico da IA é um pouco diferente porque existem, você sabe, ostensivamente, ótimas oportunidades para as crianças realmente aprenderem e crescerem por meio do uso de IAs de bate-papo. Mas suponho que seja interessante refletir sobre isso dentro do contexto que acabei de definir, porque se encaixa em um padrão que vemos com tecnologias novas e emergentes. Sabe, vemos uma nova tecnologia sendo lançada. Ela é lançada muito rapidamente, sem nenhuma salvaguarda incorporada. As crianças começam a usá-lo, e então algumas delas começam a se machucar, e então há uma batalha sobre de quem é a responsabilidade de lidar com isso. E eu acho que seu relatório é realmente fantástico porque ele realmente traz à tona a ideia de que a IA está aumentando problemas que realmente já deveriam ter sido corrigidos. Sabe, não é aceitável que crianças interajam com entidades que não foram verificadas como seguras da mesma forma que, por exemplo, funcionários de escolas precisam ser verificados antes que as crianças possam interagir com eles. E não é aceitável, sabe, como alguém que trabalha para o escritório do Comissário da Criança há mais de um ano analisando conteúdo prejudicial, não é aceitável que agora tenhamos uma nova rota para crianças serem expostas a conteúdo prejudicial quando não conseguimos bloquear os últimos com os quais lidamos, ou que talvez não tenhamos previsto este chegando.
Então, sim, eu acho que, sabe, como um escritório, em geral, nós realmente apreciamos seus insights sobre o impacto que isso tem em crianças vulneráveis em particular. Você já disse isso, mas esta é uma área muito pouco pesquisada, sabe, em geral. É uma tecnologia muito, muito nova, o que é muito desafiador. Eu sei que já houve uma pergunta no chat sobre os impactos de longo prazo disso, que eu realmente espero que sejam monitorados nos próximos anos, especialmente por se tratar de uma tecnologia tão nova. E, como uma reflexão pessoal, sabe, no verso da sua apresentação, Katie, é que estou realmente interessada em quantas crianças estão usando chatbots para companhia. Porque suponho que alguns argumentariam que, se as necessidades das crianças estivessem sendo atendidas pelas pessoas em suas vidas, elas não precisariam necessariamente recorrer a essa tecnologia para ter essas necessidades atendidas. Então, acho que isso é algo realmente interessante que espero que seja explorado em breve. Mas sim, é ótimo. É realmente ótimo ter tudo isso exposto em um relatório. É realmente interessante que as crianças realmente confiem nessas ferramentas, e eu realmente, acho que minha pergunta é se essa confiança foi conquistada. E espero que possamos explorar isso um pouco mais.
Sim, obrigado. Levantando pontos realmente válidos, e acho que essa corrida para o topo com a IA significa que, mais uma vez, essa tecnologia está sendo desenvolvida sem realmente pensar em quem vai se envolver com ela e qual o impacto que ela terá sobre eles. Então, espero que, sim, voltemos a isso um pouco mais tarde. Mas, voltando à Caroline, você poderia compartilhar conosco algumas das suas ideias?
Com certeza. E só para dizer, estou muito feliz por estar aqui hoje. E, de certa forma, tenho muitos pensamentos fervilhando em torno do excelente relatório que a Internet Matters apresentou em termos de algo tão pertinente para as crianças de hoje. Acho que, quando olho para o papel e o meu papel no Grupo LEGO, particularmente em relação ao que fazemos na equipe de Direitos e Segurança da Criança, o que realmente me impressionou naquele relatório, essa afinidade com o que tentamos fazer todos os dias, é trazer os direitos digitais das crianças para o centro de tudo o que tentamos fazer. Então, minha equipe aqui no Grupo LEGO, como eu disse, se enquadra na área de direitos e segurança da criança. Aconselhamos a empresa sobre todos os nossos produtos digitais que estamos lançando. Então, as pessoas na plateia que estão sentadas ali pensando: "O que o Grupo LEGO tem a ver com o espaço digital?" Bem, estamos olhando principalmente ao redor, é claro. O tijolo é muito importante para nós, e é o que nos torna mais conhecidos nesse sentido. Mas o elemento digital do trabalho que estamos fazendo é garantir que estamos ajudando as crianças a prosperar na era digital. E isso se resume a garantir que saibamos onde as crianças estão na era digital para que possamos ajudar a influenciá-las e ajudá-las a prosperar nesse sentido.
Para mim, em termos do relatório, acho que, quando se trata dos chatbots em si, e meio que aproveitando exatamente o que a Elle disse antes, é em torno dessa interação social. E acho que algo que realmente está faltando em relação à IA é realmente olhar para a autonomia e os direitos digitais das crianças quando se trata de novas tecnologias que estão surgindo. Com certeza. Claro, todos nós podemos ver que há muitos danos quando se trata de IA e do desenvolvimento dessas tecnologias emergentes. Mas, na verdade, estamos perguntando aos jovens o que eles estão achando positivo sobre as tecnologias nesse sentido? Se eles estão formando conexões, ou se está preenchendo uma lacuna que não necessariamente — o tipo de mundo offline não preenche essa lacuna para eles — o que, em certo sentido, estamos perdendo? E temos o direito de garantir que o que estamos criando ajude a desenvolver suas vidas online da mesma forma que fazemos em suas vidas offline ao mesmo tempo.
No Grupo LEGO, lançamos recentemente um relatório em conjunto com o Instituto Alan Turing. Também o publicarei no chat para que as pessoas possam ver, mas queríamos examinar o impacto da IA generativa, particularmente no bem-estar infantil. E acho que isso também me impressionou neste relatório: garantir que estamos realmente considerando o bem-estar das crianças, colocando-o no centro da criação de novas tecnologias, porque precisamos considerar como a IA interage com o senso de autonomia das crianças, a criatividade, a regulação emocional — claro, com chatbots — e a conexão social nesse sentido. Então, acho que nós, no Grupo LEGO, realmente encorajaríamos os desenvolvedores de IA a analisar insights e entender quais impactos são necessários para desenvolver a IA no melhor interesse da criança, porque acho que, pelo relatório, vimos que esse não tem sido o caso até agora. Então, por meio do relatório, por meio do Instituto Alan Turing, que financiamos, queríamos realmente analisar o bem-estar infantil, e, no fim das contas, considerar também essa abordagem centrada na criança, porque realmente queremos maximizar o valor e os benefícios da IA para as crianças e dar a elas autonomia sobre sua educação e suas brincadeiras. O que me impressionou foi que elas também têm autonomia sobre sua educação, garantindo que, nas escolas, haja educação midiática e alfabetização suficientes em torno da IA, e colocando o foco nisso também para garantir que, quando as crianças acessarem essas tecnologias que são tão úteis para nós, tenham os mesmos direitos digitais que nós e que possam acessá-los de uma forma segura que realmente promova seu bem-estar.
Obrigada, Caroline. Você mencionou bastante a agência. Acho que recebemos uma pergunta sobre essa tensão entre salvaguarda e agência, e talvez possamos voltar a isso mais tarde. E, novamente, os pontos que você levantou sobre habilidades, e as oportunidades que a IA oferece às crianças para desenvolver habilidades, e novamente a tensão que ela pode gerar em torno de impedir o desenvolvimento de algumas habilidades, como comunicação, se elas tiverem a IA para escrever para elas; habilidades interpessoais; pensamento crítico. Então, novamente, estamos realmente tentando entender essas implicações de longo prazo para as crianças e como isso é benéfico, mas também como pode estar prejudicando algumas habilidades que elas, você sabe, nós desenvolvemos, eu suponho, como jovens sem IA.
E, por fim, Simon, qual é a sua opinião como alguém, suponho, mais profundamente envolvido no desenvolvimento de ferramentas de IA? E talvez você possa desenvolver o que a Caroline disse lá sobre agência e direitos, e ser capaz de realmente abraçar essa tecnologia.
Sim, obrigada, Rachel, e obrigada por me receber, porque, como você disse, isso é algo pelo qual sou muito, muito apaixonada, tanto do ponto de vista da segurança infantil. Obviamente, estamos profundamente envolvidos com o desenvolvimento da IA e, portanto, temos uma visão muito técnica sobre muito do que vemos. Mas sou igualmente apaixonada por outras áreas das mídias sociais, particularmente em torno da violência contra mulheres e meninas, por exemplo. E havia um paralelo com algo que a Elle estava falando, que era — e um dos números que se destacou no relatório foi que 26% das crianças preferem conversar e sentem que podem conversar com chatbots de IA com mais facilidade do que com um adulto ou um humano. E acho que essa é uma área em que potencialmente precisamos nos olhar e entender como e onde podemos apoiá-las melhor nesse espaço, porque sem isso, estamos permitindo que a IA estabeleça a percepção do que é normal. E acho que essa é uma área muito específica em que precisamos de transparência e controle.
Quanto à Caroline, acho que o mais importante que vemos é a identificação e verificação da idade, para que conteúdo apropriado para a idade possa ser entregue, filtrado e gerenciado de forma eficaz, porque isso, infelizmente, para a maioria dos ambientes de IA existentes, é bastante difícil. Podemos perguntar, podemos orientá-los a serem específicos em relação às respostas para uma determinada faixa etária, mas, como você disse no início, a idade de entrada é em torno de 13 anos para a maioria dos sistemas. E as crianças hoje em dia sabem facilmente como contornar isso. Elas simplesmente usam a data de nascimento da mãe ou algo assim, e de repente têm acesso. Mas é ser apropriado. É como nós... algo que é apropriado para o meu filho, que tem 13 anos, é muito diferente do que é apropriado para a minha filha, que tem 18. E entender essas diferenças granulares de idade é muito importante.
Outra coisa pela qual sou super apaixonado são os controles parentais, porque são complexos. Quer dizer, qualquer pessoa que já tentou configurar controles parentais nos ambientes de seus provedores de internet sabe que é difícil. Entender essa ligação transparente entre o conteúdo apropriado para a idade e os controles parentais dentro da IA, eu acho, é realmente necessário. Eu, como pai, quero poder ver o que meus filhos estão perguntando, sobre o que estão conversando com os chatbots de IA. Agora, eu sei como fazer isso. Então, estou em uma posição bastante vantajosa, mas ser capaz de criar essa ligação e ter controles parentais acessíveis nesse espaço é muito, muito importante.
A terceira coisa pela qual sou extremamente apaixonada é o preconceito. Como entendemos e como vemos a aparência do preconceito nesses ambientes, para que possamos ajudar a educar nossos filhos, enquanto eles os utilizam, a entender quando as coisas podem ser acreditadas de um ponto de vista concreto e quando incentivamos esse pensamento crítico? E você disse que a necessidade de desenvolver o pensamento crítico em torno das respostas é extremamente importante. Mas precisamos de transparência e, como pais e como uma rede de apoio para crianças que usam isso, precisamos dessa ligação, por meio de controles, para que sejam apropriados para a idade, por meio da transparência dos dados. Mas eu adoro o relatório porque acho que são esses tipos de pesquisas, esses tipos de relatórios, que realmente começam a nos ajudar a pensar adequadamente sobre como lidamos com essas questões.
Obrigado, Simon. A sessão está avançando rapidamente. Acho que passamos bastante tempo conversando sobre algumas dessas questões, mas eu só queria passar para algumas perguntas específicas. E eu não... pessoal, por favor, vocês podem deixar algumas perguntas na sessão de perguntas e respostas, e tentaremos respondê-las. Sei que o tempo está passando rápido porque é um tema muito interessante, mas tentaremos abordar algumas delas mais tarde. Então, por favor, enviem-nas se tiverem.
Vou começar. Conversamos bastante sobre autonomia, crianças e seus direitos, e talvez eu comece com você, Elle, perguntando se você tem alguma ideia do que está ouvindo das crianças sobre IA, como a IA está moldando suas vidas hoje e como elas se sentem em relação ao seu papel no futuro. Você é realmente apaixonada por ouvir as próprias crianças. Também conversamos um pouco sobre isso. Então, seria muito interessante ver se você tem alguma ideia sobre isso.
Sim, quero dizer, vocês devem ter me visto concordando rapidamente quando a palavra "agência" surgiu, porque, sabe, não tem a ver apenas com IA, mas com as interações das crianças com o mundo online em geral. O sentimento geral que as crianças têm é que são responsáveis pelo que acontece com elas, mas não necessariamente controlam o que acontece com elas. E acho que isso tem sido um problema há anos. Acho interessante porque mencionei isso um pouco quando falei antes, que muitas das nossas pesquisas não foram necessariamente específicas para IA, com exceção do trabalho com deepfakes. Mas quando falamos sobre o mundo online, a IA surgiu organicamente, e as crianças em geral — os dados que nos forneceram são para compartilhar pensamentos pessimistas sobre ela. Então, não posso necessariamente falar sobre como elas se sentem sobre isso moldando seu futuro de forma positiva, e isso pode ser apenas por causa da nossa coleta de dados. Mas o que elas compartilharam de certa forma toca no ponto de "agência". Sabe, há muito medo em relação a como será o futuro do trabalho para as crianças. Acho isso muito, muito interessante, porque se desvia um pouco do tipo de IA que estamos discutindo hoje. Mas acho que os criativos entre nós provavelmente estavam pensando no que isso vai fazer — no que os chatbots farão com o mundo do trabalho à medida que avançamos. E acho que a outra coisa que as crianças realmente queriam destacar é essa questão da confiança que elas estão sentindo, não apenas com a IA com a qual estão interagindo, ou com a tecnologia com a qual estão interagindo, mas acho que sua capacidade de conversar sobre isso com as pessoas ao seu redor offline. E acho que, sabe, é algo que realmente espero que, como escritório, possamos analisar um pouco mais. Mas acho interessante ouvir as reflexões das crianças sobre tudo isso serem muito semelhantes às suas reflexões sobre outras partes do mundo online. Sabe, vemos coisas como medo e confiança surgirem quando falamos com crianças sobre pornografia, quando falamos com elas sobre o uso que fazem das redes sociais ou de mecanismos de busca. Parece se encaixar em um padrão. Então, sim, é muito, muito bom que vocês tenham um estudo focado nisso aqui.
Caroline, você tem algo a acrescentar? Acho que você inicialmente levantou o tópico de agência, e como eu disse, recebemos algumas perguntas sobre isso, tipo, você sabe, proteção versus agência e como lidamos com isso para crianças.
Com certeza, e é uma pergunta muito pertinente, principalmente porque lançamos nosso relatório no mês passado. Devo dizer que o Instituto Alan Turing foi o responsável pela maior parte deste trabalho, então quero dar o devido crédito a quem merece. A equipe de lá é incrível no que fez e adotou uma abordagem de participação e atuação infantil realmente incrível para este trabalho. Eles criaram um relatório incrível que demonstra exatamente o que as crianças querem do espaço da IA, e acho que quando falo sobre atuação e nós falamos — e havia uma pergunta sobre proteção — isso é realmente fundamental e interessante, porque quando as crianças, a forma como o relatório foi realizado, elas foram ao Instituto Alan Turing junto com o Parlamento Infantil, foram a escolas na Escócia e estavam usando IA em sala de aula. E como eu mesmo sou um profissional de proteção, minha primeira pergunta a elas foi: "Esperem um minuto. Vocês estão dando às crianças esses dispositivos em termos deste ambiente. Não estamos preocupados com o que elas verão?" Então, em termos disso, de uma perspectiva de salvaguarda, eles não tinham permissão para usar IA por conta própria, de forma alguma. Eles eram monitorados. Então, com certeza, a agência ali foi imediatamente retirada. Então, sim, dizemos que queremos lutar pela agência, mas a questão da salvaguarda não foi resolvida aqui. E, obviamente, crianças, estamos colocando os direitos das crianças em primeiro lugar aqui, e queremos que a segurança delas esteja no centro disso. Mas como podemos esperar fazer isso se as ferramentas que estamos dando a elas não são seguras desde o início naquele estado?
E foi realmente interessante, e você lerá no relatório. A equipe, o Instituto Alan Turing e o Parlamento Infantil, concentraram-se principalmente no design criativo, considerando como as crianças reagem às ferramentas de IA, e também em termos do lado da criatividade. E o que se concluiu foi que precisamos, de fato, apoiar as diversas formas de brincadeira e criatividade das crianças, tanto online quanto offline. A razão pela qual digo isso, e isso se alinha diretamente com os nossos valores fundamentais aqui no Grupo LEGO, é que eles realmente gostaram de criar — usando DALL-E e ChatGPT para criar imagens para eles, mas eles preferiram muito mais a criatividade porque também tinham materiais de arte lá. Eles estavam comparando os dois e, na verdade, perceberam que seus sentimentos em relação à autonomia, bem-estar e conectividade — você sabe, todas as coisas que sabemos serem componentes essenciais de como as crianças aprendem e como as crianças interagem com o espaço online — eram, na verdade, as ferramentas físicas de criatividade que eles apreciavam ainda mais. Eles disseram que não sentiram nada quando pediram à GenAI para fazer isso, em vez de criativamente. Eles estavam preocupados com o impacto ambiental da IA. Eles estavam preocupados com a desinformação. Então, na verdade, quando se trata de agência dessa forma, precisamos garantir que estamos procurando ver o que as crianças querem dos produtos digitais que elas estão usando — que sabemos que elas adoram usar.
Também baseamos o relatório em algumas de nossas pesquisas sobre o RIT, sobre as quais eu realmente gostaria de falar aqui também. O RIT é nossa inovação responsável em tecnologia para crianças. É uma pesquisa que o Grupo LEGO realizou em conjunto com a Fundação LEGO e a UNICEF. E é um relatório que demonstra que o mundo digital tem um impacto muito positivo no bem-estar das crianças. E há algo chamado RIT 8. Novamente, vou postá-lo no chat para os interessados. E ele demonstra que, ao usar oito princípios do RIT, você pode realmente criar uma experiência digital que gera autonomia e também uma sensação de bem-estar, porque isso é algo em que estamos realmente interessados no Grupo LEGO: queremos que as crianças saiam de nossos serviços se sentindo melhor por tê-los usado do que quando começaram. E, na verdade, usamos o RIT 8 no relatório de Alan Turing e demonstramos exatamente o que eles estavam procurando. Então, no RIT 8, há coisas como segurança, relacionamentos, autonomia e, na verdade, a IA não respondeu de forma positiva em termos de como gostaríamos que fosse um resultado de bem-estar. Então, em termos de segurança, a equipe nos demonstrou que as crianças estavam visualizando muitos resultados inadequados quando pesquisavam na IA. Relacionamentos — novamente, materiais de arte tradicionais eram algo em que elas tinham mais conexão social, sabe, elas conversavam com os amigos enquanto criavam a arte, meio que juntos também. E em termos de autonomia, elas realmente apreciam ter um grau maior de autonomia — elas não querem alguém olhando por cima do ombro delas, alguém tendo que digitar para elas. Então, é como se estivéssemos começando a analisar a IA e, com a RIT, o que eu também gostaria de pedir que vocês observassem é que temos uma fase dois do relatório, que é a nossa caixa de ferramentas, onde estamos incentivando os participantes da indústria e designers de produtos a usar a RIT enquanto desenvolvem essas ferramentas para realmente colocar as crianças em primeiro plano quando se trata desses oito princípios, para que o bem-estar seja um componente-chave do uso da IA em geral. Falei muito rapidamente então, então vou passar a palavra de volta, mas havia muito que eu queria dizer sobre como a IA está moldando as crianças hoje, porque achei a voz das crianças muito interessante e algo que ficou muito claro no relatório, como nós também achamos.
Sim. Não, não, com certeza. E é ótimo falar sobre isso. Sabe, como é um design responsável centrado na criança? E você meio que falou sobre alguns princípios sobre como isso poderia ser. E talvez eu possa recorrer a você, Simon, porque você está obviamente trabalhando nessa área e desenvolvendo ferramentas de IA. Existem bons exemplos disso que podemos usar para realmente pensar em como a IA pode apoiar as crianças e pensar no que elas querem fazer com isso, seus direitos, mas também gerenciar essas tensões em termos de desenvolver as habilidades certas?
Sim. E, infelizmente, não há muitos exemplos de onde isso está sendo bem feito. E houve algumas perguntas no chat sobre as tensões comerciais envolvidas nisso. Infelizmente, estamos lidando predominantemente com organizações comerciais de grande porte que buscam principalmente o retorno financeiro da maneira como estão criando alguns desses ambientes. Falamos sobre isso anteriormente, a importância de ser capaz de construir fluxos de conteúdo granulares e adequados à idade por meio disso, e entender de onde vem a transparência dessa fonte de dados é extremamente importante. E uma das maiores coisas que vemos no momento é essa transparência, e isso também se resume a todo o conceito de viés. Se você consegue entender de onde vêm os dados, de onde vem o treinamento, você consegue entender como e onde o viés pode se instalar, o que é difícil porque, às vezes, isso é pessoalmente subjetivo. Mas gatilhos e barreiras adequados à idade para a maneira como estamos treinando esses conjuntos de dados são realmente essenciais. E, no momento, isso está apenas começando. E acho que alguns dos pontos que foram levantados em outros tópicos, nas perguntas ali, acho que começaremos a ver diferentes fluxos de IA, diferentes tipos de modelos, esses grandes modelos de linguagem que foram treinados muito especificamente com limites de idade naquele espaço.
Obrigado, Simon. E talvez pudéssemos falar sobre regulamentação. Acho que já conversamos um pouco sobre as responsabilidades da indústria, mas, pensando no tipo de política e regulamentação atuais, acho que parece que não estamos acompanhando o ritmo da tecnologia no momento. Então, Katie, talvez você possa falar um pouco sobre onde nós, onde você acha que está ficando para trás, e o que precisa ser feito.
Sim, com certeza. Então, eu acho que, sabe, na Internet Matters, sempre falamos que não pode haver apenas uma abordagem para tornar o mundo online seguro para crianças e jovens. Isso precisa vir da indústria. Precisa vir do governo. Sabe, as escolas precisam de apoio. Os próprios pais e filhos precisam entender a tecnologia com a qual estão interagindo e, sabe, ser capazes de interagir com ela da maneira que quiserem. Mas acho que, se nos concentrarmos especificamente na regulamentação, um dos desafios que encontramos nesta pesquisa é que, embora coisas como a Lei de Segurança Online, por exemplo, tenham sido concebidas para serem construídas ou criadas de tal forma que mudem com as tecnologias novas e emergentes, sabe, quase caímos no primeiro obstáculo quando se trata de chatbots de IA, por exemplo, onde há informações conflitantes registradas, seja pela Ofcom ou pelo governo, sobre como os chatbots de IA se enquadrarão na regulamentação atual de segurança online, seja a Lei de Segurança Online ou outros elementos da regulamentação. E já vimos com outros tipos de elementos de IA, pensando em torno de leis de notificação, por exemplo, onde, sabe, legislação teve que ser criada ou implementada porque a legislação atual não protege as pessoas do tipo de aplicações de IA e de algumas dessas formas mais graves. Então, acho que definitivamente há espaço para melhorias, e talvez um ponto de partida seria esclarecer o que pode e o que não pode ser feito sob a legislação existente antes de prosseguirmos para preencher essas lacunas.
Acho também, da nossa perspectiva, que uma das lacunas existentes na legislação atual, e isso se aplica também às mídias sociais, mas acho que está se manifestando em relação aos chatbots de IA, é a questão da verificação da idade. Como eu disse quando estava falando, a verificação da idade é fundamental para desbloquear muitos outros elementos da segurança infantil. Seja no controle parental ou em experiências adequadas à idade. Então, acho que tornar isso obrigatório na legislação e garantir que entendamos a idade dos usuários nessas plataformas é realmente fundamental. Sabe, ouvimos na pesquisa que as crianças estavam se inscrevendo porque queriam recursos de pessoas mais velhas, para que pudessem obter recursos que não eram acessíveis a crianças e coisas do tipo, e isso só é possível proibir com a verificação da idade. Então, acho que esse também é um ponto de partida fundamental para o governo.
Ótimo. Obrigada, Katie. E talvez ainda tenhamos 10 minutos. Podemos começar a abordar algumas das perguntas que recebemos dos participantes. Falamos bastante sobre agência, mas houve algum interesse em saber o que os painelistas pensam sobre o papel das escolas. Então, talvez a Elle possa falar sobre isso. O papel das escolas no apoio à alfabetização midiática das crianças, particularmente em relação à IA, e o apoio de que elas precisam, eu acho, é a mensagem e o pensamento principais.
Sim, com certeza. Quer dizer, nem preciso dizer que as escolas são extremamente importantes nisso. Elas atendem crianças cinco dias por semana. E sim, mas acho que não podemos ver isso como uma solução milagrosa. Katie acabou de dizer que precisa haver... há responsabilidade geral nisso. E não podemos ensinar as crianças a viverem em um mundo mais seguro. O mundo é como é, e podemos olhar para ele e nos perguntar se queremos que as crianças cresçam nessa situação e se ela foi construída levando em conta seus direitos e interesses. Portanto, as intervenções escolares precisam vir junto com as mudanças que a indústria de tecnologia precisa fazer desde o início. Mas, dito isso, a alfabetização em IA será... e é necessária agora, olhando para este relatório... será tão importante quanto qualquer outro tipo de alfabetização que as escolas estejam ensinando atualmente. As escolas estão na linha de frente da preparação das crianças para o mundo. E acho que quanto mais pudermos aprender sobre como é esse mundo, o que um relatório como este está fazendo, porque, como eu disse antes, há muita coisa que não sabemos, e há muita coisa que as escolas ouvem pela primeira vez antes mesmo que a sociedade civil ou qualquer pessoa no governo ouça. As escolas são as que ouvem pela primeira vez — a primeira. Portanto, garantir que as raízes da informação fluam para lá será muito importante.
Nos escritórios da Comissão, obviamente, gostaríamos de ver um mundo onde as crianças não precisem se preocupar com danos, e isso pode e deve ser prevenido. Então, a maneira como as escolas podem ajudar com isso, ou pelo menos a maneira como as escolas serão capazes de fornecer uma maneira realmente valiosa de lidar com isso, é o fato de que elas serão capazes de fornecer algumas informações às crianças de uma forma que seja acessível a crianças em todo o país. Sabe, há escolas que podem adaptar diferentes materiais educacionais para seus filhos que mais precisam, o que é realmente ótimo. Alguns de vocês devem ter visto as novas diretrizes estatutárias sobre relacionamentos, saúde e educação sexual publicadas esta semana. E nós realmente acolhemos com grande entusiasmo a inclusão da IA nesse currículo. Há muitos outros tópicos que estamos muito satisfeitos em ver também. Sabe, como a pornografia e a ligação com a misoginia, todas essas coisas ótimas que, sabe, é muito bom ver atualizadas para o mundo em que vivemos. E acho que em termos do que as escolas precisarão para entregar isso bem, porque o sucesso disso estará na entrega, o Comissário está pedindo ao Departamento de Educação para liderar uma campanha de recrutamento de professores especialistas em RHSSE que atuarão em todo o currículo. Então, esperamos que isso incentive o pensamento crítico sobre IA e o mundo online em geral, a ser integrado ao aprendizado diário das crianças, bem como ao seu cotidiano. Então, você sabe, estamos realmente animados para ver o impacto que essa nova orientação terá.
Mas sim, não, certamente, acho que também acolhemos isso com satisfação, e, sabe, todas as coisas certas estão começando a ser discutidas e incluídas. Mas você tem razão, a questão é como isso é implementado e qual apoio as escolas recebem, porque é meio fragmentado e ouvimos muito de pais e filhos por aí, sabe, algumas pessoas têm uma experiência muito boa em aprender sobre esses tópicos, alfabetização midiática e como se manter seguro online, embora não seja o mesmo para todas as crianças. Então, como podemos garantir que isso seja incorporado para que seja obrigatório em todas as comunidades escolares? Talvez possamos voltar a outra pergunta que tínhamos. Não sei se você quer acrescentar algo a isso, Katie, antes de prosseguirmos.
De jeito nenhum. Acho que a única coisa que eu gostaria de mencionar — uma coisinha — é em relação à disparidade que estávamos observando, que muitas vezes ecoa outras disparidades que vemos entre áreas de alta e baixa desvantagem. Muitas vezes, nas áreas onde há altos níveis de desvantagem, os recursos de ensino são direcionados para outras prioridades. Talvez eles não tenham acesso aos mesmos chatbots de IA ou coisas que algumas escolas estão construindo. Então, acho que é por isso que é tão importante termos essa orientação correta para nivelar também esse campo de atuação.
Sim, com certeza. Recebemos outra pergunta interessante de alguém que disse estar ouvindo mais sobre adultos que usam chatbots como terapeutas substitutos. Então, estamos vendo alguma semelhança com o que as crianças estão fazendo, especialmente os adolescentes? Talvez isso seja algo que vocês, Elle ou Katie, queiram...
Sim, posso tentar. É definitivamente algo que foi levantado na pesquisa em termos de alguns dos exemplos que as crianças estavam dando. Então, houve alguns exemplos em que, sabe, talvez os tipos de conselhos ou perguntas que elas estavam fazendo ou buscando respostas fossem o tipo de coisa que talvez um terapeuta tradicional ou talvez um adulto de confiança responderia. Acho que é algo definitivamente pouco explorado e acho que existem aplicações realmente positivas. Acho que o NHS criou um aplicativo que permite que você converse com um terapeuta entre as sessões. Então, eu acho que, sabe, isso não é necessariamente algo ruim se for feito da maneira certa, mas acho que provavelmente não estamos em um ponto em que chatbots de IA gerais devam ser usados como terapeutas para crianças, e isso é algo que estamos começando a ver acontecer.
Sim, gostaria de repetir o que a Katie acabou de dizer. É algo que sinto que provavelmente veremos mais à medida que isso se intensifica, sabe, os chatbots de IA serão integrados em ainda mais espaços que vemos. Acho que a Katie, talvez... vi a pessoa que fez as perguntas usar a palavra "substituto", e acho isso muito interessante porque sugere que não está dando o suporte completo que um terapeuta comum daria. E acho que isso realmente levanta questões sobre se esse chatbot de IA está sendo usado dessa maneira, se deveria ser usado dessa maneira? E se não deveria ser, deveria ficar claro que, na verdade, este não é um lugar seguro para alguém ir quando se sente extremamente vulnerável, ou que seja algo incentivado e, na verdade, eu acho, celebrado nesse sentido, porque, novamente, seria realmente fantástico se houvesse um espaço onde as pessoas pudessem acessar o suporte quando precisassem, muito, muito rapidamente. Mas sim, acho que seria um espaço muito interessante para, eu acho, pesquisas em termos de saúde mental também.
Sim. Acho que tivemos um comentário mais cedo no chat sobre a ideia de que incomodar esse tipo de criança talvez pudesse entrar nesses espaços para obter esse tipo de conselho quando, obviamente, o chatbot de IA não sabe nada sobre elas, seu contexto, sua vida familiar, sabe, qual o apoio que elas já receberam e, dependendo do tipo de perguntas que estão fazendo, como ele responde a elas. Alguém tem alguma ideia sobre como abordamos isso? Sabe, você falou um pouco, Elle, sobre o tipo de coisa que incentivamos se for bem feito, ou realmente não incentivamos se, hum, ainda não tiver esse tipo de capacidade de realmente entender mais sobre essas questões. Então, talvez Simon ou Caroline, se vocês tiverem alguma sugestão novamente sobre como a IA pode se desenvolver para ser realmente melhor no que ela tem potencial para fazer.
Sim, sim. Hum, acho que há muito o que explorar em todas essas áreas. A única coisa que eu gostaria de dizer, e eu estava respondendo a alguém em um dos chats, é que acho que estamos falando obviamente sobre chatbots de IA neste ambiente, mas a IA está, em última análise, impulsionando uma espécie de revolução industrial em todos os tipos de áreas que vemos. E acho que conversamos um pouco sobre isso há pouco, quando falamos sobre as preocupações que as crianças têm sobre como será seu futuro profissional. E acho que essa é uma dessas áreas em que precisamos de exemplos mais amplos de como a IA, não apenas como chatbots, mas em outras áreas da indústria, na vida profissional e em nosso próprio dia a dia, como a IA vai nos ajudar e que tipo de vantagens ela trará e como deve ser usada como ferramenta. Meu filho tem TDAH e é fanático por LEGO. Hum, mas ele às vezes acha isso frustrante porque tem todas essas ideias maravilhosamente criativas e não sabe como colocá-las em prática. Ele usa os chatbots para ajudá-lo a entender como pode desenvolver suas ideias criativas mais rapidamente. E, dessa perspectiva, é absolutamente brilhante. Minha filha acabou de tirar o nível A. Ela usou ChatGPT Como uma forma de ajudar a testar sua prontidão para o nível avançado em psicologia. Portanto, existem algumas áreas realmente excelentes em que a IA pode agregar benefícios à educação nesse espaço. Mas acho que precisamos olhar para isso de forma mais ampla, além dos chatbots, e entender como ela está impulsionando essa pseudo-revolução industrial, porque ela mudará absolutamente tudo. E eu, mas não acho que devemos ter medo disso, porque acho que ela está abraçando isso. E o ponto da Elle é: como fazemos para que as empresas de tecnologia também ajudem a lidar com esse problema? Hum, e isso... não quero dizer problema. Não é bem isso que quero dizer. Mas porque pode ser uma grande oportunidade nesse espaço, mas não é para uma organização. Não é para uma empresa fazer isso. Tem que ser coletivo.
Posso acrescentar, desculpe, antes de terminarmos, Rachel, mas sei que chegamos na hora certa. Rapidamente, só para reforçar o que eu disse antes: precisamos mesmo apoiar as diversas formas de brincadeira das crianças, tanto offline quanto online. E acho que o Simon acabou de dizer isso. Eu não pedi para ele fazer uma propaganda do Grupo LEGO. Eu... eu prometo. Mas acho que é um ótimo exemplo, certo, em termos do que estamos tentando fazer. Sabe, quando você compra o primeiro conjunto LEGO do seu filho, você está no chão com ele. Você está construindo com ele. Os pais estão envolvidos da mesma forma que isso deve ser construído por meio de suas vidas digitais também. Em termos de IA, sabe, em termos de, tipo, podemos ter muito medo dela, mas, na verdade, se fizermos isso juntos e usarmos a brincadeira para ajudar a criar aquela confiança que pais e famílias precisam, e empresas também, para garantir que estamos realmente incorporando os direitos das crianças em tudo o que fazemos, mas não estamos olhando para isso de forma isolada, estamos olhando para isso de forma a respeitar as crianças tanto offline quanto online. Hum, eu sei que estamos em cima do nosso tempo, desculpe interromper.
Então, sim, tudo bem. Não, obrigado. Muito bons comentários. Então, obrigado a todos pelas contribuições de hoje. Resumindo, eu queria voltar a como comecei, suponho, pensando em tudo o que conversamos. Há tanta coisa para desvendar, e a ideia de que o ritmo das mudanças no mundo online e a segurança das crianças nele é meio avassalador para os pais. E acho que, como ouvimos hoje, sou apenas um aspecto disso, da vida digital das crianças. Há muito a considerar, e, você sabe, em relação à IA e ao uso que as crianças fazem dela, então, garantir que elas possam aproveitá-la de forma positiva e segura. Então, é absolutamente um esforço coletivo. Acho que todos nós conversamos sobre esse tipo de indústria, governo, pais, escolas, todos trabalhando juntos para garantir que as crianças acolham isso de forma positiva. Então, obrigado a todos por comparecerem hoje, e espero que nossa pesquisa tenha realmente brilhado e que a discussão de hoje tenha realmente esclarecido essa questão e as experiências das crianças. Hum, então, e meio que, vocês sabem, espero que todos possamos enfrentar os desafios enquanto avançamos juntos. Então, um enorme obrigado a todos que participaram. À nossa equipe interna por produzir um relatório e webinar fantásticos hoje, e a todos os nossos palestrantes e painelistas. Katie, Elle, Caroline e Simon, muito obrigado, hum, pelas suas reflexões e observações. Foi um bate-papo realmente ótimo. Tenho certeza de que poderíamos ter ficado mais uma hora. Então, aproveitem o resto do dia, pessoal, e obrigado.
Eu, eu mesmo e a IA: O relatório completo
Eu, eu mesmo e a IA: O relatório completo
Compreendendo e protegendo o uso de chatbots de IA por criançasApoiar a investigação e os recursos
Explore mais de nossas pesquisas, além de recursos projetados para pais, cuidadores e profissionais.