MENU

O que é IA generativa (Gen-AI) e como pode afetar o bem-estar das crianças?

Assista ao #Take20Talk completo sobre como a inteligência artificial pode impactar o bem-estar das crianças.

Este mês, participamos do #Take20Talk da Anti-Bullying Alliance.

Saiba mais sobre o uso da IA ​​generativa pelas crianças e seus impactos antes de nossa próxima pesquisa sobre IA generativa e educação.

Tivemos o prazer de participar de um #Take20Talk com a Anti-Bullying Alliance. A palestra deu-nos a oportunidade de discutir o impacto da IA ​​generativa no bem-estar digital das crianças.

Na sessão, discutimos o uso da IA ​​generativa pelas crianças, os benefícios e riscos que ela apresenta, e o atual cenário político em torno desta tecnologia em evolução. Esta apresentação antecede nossa próxima pesquisa sobre IA generativa e educação, que será lançada no início do próximo ano.

O que é IA generativa?

IA generativa (Gen-AI) é uma forma de inteligência artificial que produz texto, imagens e áudio originais. Os modelos Gen-AI são treinados em conjuntos de dados usados ​​para criar novos conteúdos, com base em padrões aprendidos durante o processo de treinamento.

Usos da Gen-AI Processamento de Linguagem Natural (PNL). Este é um ramo da IA ​​que “se concentra em ajudar os computadores a compreender, interpretar e gerar a linguagem humana”. Essas tecnologias oferecem muitas oportunidades interessantes para as crianças. No entanto, tal como acontece com todas as novas tecnologias, a par dos benefícios, também existem riscos potenciais a conhecer.

Quais são as oportunidades da Gen-AI?

Experiências de aprendizagem personalizadas

A IA generativa pode ajudar os professores a personalizar seus planos de aula e materiais para melhor atender às diferentes necessidades de aprendizagem de seus alunos. Isso, portanto, garante uma experiência de aprendizagem mais envolvente e inclusiva para diversas salas de aula.

Na verdade, os professores já utilizam ferramentas generativas de IA para fornecer apoio personalizado a alunos com necessidades educativas especiais e deficiência (SEND).

Suporte através de linhas de apoio

As crianças podem beneficiar de linhas de apoio que utilizam IA generativa. Linhas de apoio social e de saúde mental baseadas em IA generativa podem fornecer apoio altamente responsivo e personalizado aos jovens. Isto pode levar a assistência imediata e aumentar a eficácia global do apoio humano.

Por exemplo, Kids Help Phone é um serviço online de saúde mental que usa tecnologia generativa de IA para oferecer suporte 24 horas por dia, 7 dias por semana, a crianças em todo o Canadá. Utilizando PNL, este serviço analisa e combina o estilo de comunicação dos jovens. Isto, por sua vez, direciona as crianças para o canal de serviço específico de que necessitam, seja para apoio em caso de sofrimento emocional, questões de bullying ou outras preocupações.

As linhas de apoio oferecem um espaço seguro e anónimo para os jovens expressarem os seus sentimentos e preocupações sem medo de julgamento. No entanto, embora os chatbots da linha de apoio possam fornecer respostas rápidas, faltam-lhes as nuances e a adaptabilidade que o suporte humano oferece. Portanto, lutarão para substituir totalmente a eficácia da interação humana.

Chatbots de apoio emocional

Além de apoiar e orientar os jovens por telefone, os chatbots de IA podem servir como companheiros virtuais. Em alguns casos, podem fornecer apoio emocional a crianças que têm dificuldade em fazer amigos ou em lidar com desafios sociais. Além disso, estes chatbots podem apoiar crianças que se sentem solitárias ou que lutam para partilhar os seus sentimentos com outras pessoas.

Com as salvaguardas certas implementadas, os chatbots também podem apoiar crianças que lutam contra a ansiedade social. Estas ferramentas podem oferecer um espaço sem julgamentos para participar em conversas e para desenvolver e praticar interações sociais.

Um exemplo deste tipo de chatbot é Harlie. Harlie é um aplicativo para smartphone que usa tecnologia de IA e algoritmos de PNL para falar com humanos. No entanto, em vez de apenas responder às perguntas, Harlie incentiva o diálogo fazendo perguntas ao usuário. Além disso, com a permissão do usuário, Harlie pode capturar informações sobre padrões de fala para compartilhar com equipes de saúde e de pesquisa e fornecer terapia direcionada.

Quais são os riscos potenciais?

Impactos no pensamento crítico

Uma dependência excessiva da IA ​​generativa pode impactar negativamente as habilidades de pensamento crítico das crianças. Isto porque reduz as oportunidades de se envolver em análises independentes e na resolução de problemas. Além disso, a utilização da IA ​​como principal fonte de conhecimento pode comprometer a capacidade de questionar e avaliar a informação. Veja nosso guia para pensar criticamente online.

É importante ajudar as crianças a incorporar ferramentas de IA em seu aprendizado sem depender muito deles.

Relações parassociais e bullying

Há uma tendência preocupante em que usuários jovens copiam comportamentos de bullying e os direcionam para um chatbot de IA. Nas redes sociais, alguns utilizadores encorajam outros a “intimidar” os chatbots através de gaslighting e maus-tratos em geral.

Embora as crianças não estejam intimidando outros seres humanos, há preocupação sobre como as interações virtuais poderiam normalizar os comportamentos de intimidação.

Exposição a conteúdo explícito

A utilização de determinados chatbots de IA pode expor as crianças a conteúdo explícito e impróprio. Um exemplo desse chatbot é o Replika. Replika é um chatbot de IA personalizado que incentiva os usuários a compartilhar informações pessoais. Quanto mais informações um usuário compartilhar com ele, mais ele poderá personalizar suas respostas.

Embora o site alegue ser apenas para maiores de 18 anos, ele não exige nenhuma verificação de idade. Como tal, as crianças encontrarão poucas barreiras ao usar o site.

Replika incentiva os usuários a se envolverem em conversas explícitas com adultos. Além disso, solicita que paguem uma taxa para que o chatbot compartilhe fotos indecentes ou facilite uma videochamada “romântica”. Normalizar o ato de pagar por conteúdo explícito poderia promover uma cultura onde as crianças sentem que é aceitável solicitar, receber e enviar imagens inadequadas – tanto com o chatbot como entre si.

Geração de conteúdo ilegal

Os relatórios sugerem que as crianças utilizam cada vez mais ferramentas de IA para gerar imagens indecentes de colegas, facilitadas por aplicações de “desroupa” facilmente acessíveis. Imagens indecentes de menores de 18 anos são ilegais, independentemente das circunstâncias de sua produção. Isso inclui material de abuso sexual infantil (CSAM) produzido com tecnologia deepfake.

Embora a dinâmica da produção e distribuição de deepfakes seja diferente de outras formas de abuso sexual baseado em imagens, os danos para as vítimas serão provavelmente igualmente graves, se não mais.

O que os adolescentes dizem sobre a tecnologia deepfake

Para explorar mais detalhadamente os impactos da tecnologia deepfake, realizamos uma série de grupos focais no início deste ano. Os grupos focais contaram com adolescentes de 15 a 17 anos e abordaram o tema da misoginia online. Isto também incluiu a dinâmica de género que sustenta assédio e abuso sexual entre crianças.

Os participantes discutiram o abuso sexual envolvendo tecnologia deepfake – uma questão que chegou às manchetes várias vezes este ano, tanto no Reino Unido como internacionalmente. Os adolescentes – em particular as participantes do sexo feminino – geralmente partilhavam a opinião de que ser vítima de abuso de deepfake poderia, de facto, ser mais prejudicial do que as formas convencionais de partilha de imagens não consensual.

Os participantes nos disseram que a intensidade do dano reside na falta de agência e controle que sentiriam em um deepfake. Isso ocorre porque eles não teriam conhecimento ou consentimento para sua produção:

“Acho que o deepfake seria bem pior talvez, porque, com um nude, você também pegou, então você sabe disso, enquanto o deepfake, você não terá a menor ideia. Poderia literalmente haver um lançamento agora e ninguém poderia saber” – Garota, de 15 a 17 anos, grupo focal Internet Matters.

Próximas pesquisas sobre IA generativa

O governo do Reino Unido decidiu não introduzir nova legislação sobre IA. Em vez disso, dependerá dos quadros legislativos existentes para regular a produção e utilização de novas tecnologias de IA.

Ainda não está claro se esta abordagem moderada protegerá suficientemente os indivíduos — especialmente as crianças — de toda a gama de riscos colocados pela IA, incluindo os danos emergentes dos novos serviços e tecnologias.

É importante que as opiniões e preocupações dos jovens e dos pais sejam tidas em conta na elaboração de políticas em torno da utilização da IA ​​generativa. Isto é particularmente verdade quando se trata do uso da tecnologia na educação, onde as possíveis aplicações podem ser mais impactantes.

Então, temos o prazer de anunciar nova pesquisa sobre os impactos da IA ​​generativa na educação, com base nas opiniões das crianças e dos pais. A investigação irá explorar a forma como as famílias e as escolas estão a utilizar a Gen-AI e as esperanças e preocupações das crianças e dos pais para o futuro.

Isso foi útil?
Diga-nos como podemos melhorá-lo

Postagens recentes