MENU

Cos’è l’intelligenza artificiale generativa (Gen-AI) e in che modo può influire sul benessere dei bambini?

Guarda l'intero #Take20Talk su come l'intelligenza artificiale potrebbe avere un impatto sul benessere dei bambini.

Questo mese abbiamo partecipato al #Take20Talk dell'Alleanza anti-bullismo.

Scopri l’uso dell’intelligenza artificiale generativa da parte dei bambini e il suo impatto in vista della nostra prossima ricerca sull’intelligenza artificiale generativa e sull’istruzione.

Siamo stati lieti di partecipare a un #Take20Talk con l'Alleanza anti-bullismo. L’intervento ci ha dato l’opportunità di discutere l’impatto dell’intelligenza artificiale generativa sul benessere digitale dei bambini.

Nella sessione, abbiamo discusso dell’uso dell’intelligenza artificiale generativa da parte dei bambini, dei vantaggi e dei rischi che presenta e dell’attuale panorama politico che circonda questa tecnologia in evoluzione. Questa presentazione precede la nostra prossima ricerca sull’intelligenza artificiale generativa e l’istruzione, che sarà pubblicata all’inizio del prossimo anno.

Cos'è l'IA generativa?

L'intelligenza artificiale generativa (Gen-AI) è una forma di intelligenza artificiale che produce testo, immagini e audio originali. I modelli Gen-AI vengono formati su set di dati utilizzati per creare nuovi contenuti, attingendo a modelli appresi durante il processo di formazione.

Utilizzi della generazione AI Natural Language Processing (NLP). Si tratta di un ramo dell’intelligenza artificiale che “si concentra sull’aiutare i computer a comprendere, interpretare e generare il linguaggio umano”. Queste tecnologie offrono molte opportunità interessanti per i bambini. Tuttavia, come per tutte le nuove tecnologie, oltre ai vantaggi, ci sono anche potenziali rischi di cui tenere conto.

Quali sono le opportunità della Gen-AI?

Esperienze di apprendimento personalizzate

L’intelligenza artificiale generativa può aiutare gli insegnanti a personalizzare i programmi e i materiali delle lezioni per supportare meglio le diverse esigenze di apprendimento dei loro studenti. Ciò garantisce quindi un’esperienza di apprendimento più coinvolgente e inclusiva per classi diverse.

In effetti, gli insegnanti utilizzano già strumenti di intelligenza artificiale generativa per fornire supporto su misura agli alunni con bisogni educativi speciali e disabilità (SEND).

Supporto tramite linee di assistenza

I bambini possono beneficiare di linee di assistenza che utilizzano l’intelligenza artificiale generativa. Le linee di assistenza sanitaria sociale e mentale basate sull’intelligenza artificiale generativa possono fornire un supporto altamente reattivo e personalizzato ai giovani. Ciò può portare a un’assistenza immediata e migliorare l’efficacia complessiva del sostegno umano.

Per esempio, Telefono di aiuto per bambini è un servizio online di salute mentale che utilizza la tecnologia dell'intelligenza artificiale generativa per offrire supporto 24 ore su 7, XNUMX giorni su XNUMX ai bambini in tutto il Canada. Utilizzando la PNL, questo servizio analizza e abbina lo stile di comunicazione dei giovani. Questo a sua volta indirizza i bambini verso il canale di servizio specifico di cui hanno bisogno, che si tratti di supporto per disagio emotivo, problemi di bullismo o altre preoccupazioni.

Le linee di assistenza offrono uno spazio sicuro e anonimo in cui i giovani possono esprimere i propri sentimenti e preoccupazioni senza timore di giudizio. Tuttavia, sebbene i chatbot dell’helpline possano fornire risposte rapide, mancano delle sfumature e dell’adattabilità offerte dal supporto umano. Faranno quindi fatica a sostituire completamente l’efficacia dell’interazione umana.

Chatbot di supporto emotivo

Oltre a supportare e indirizzare i giovani al telefono, i chatbot basati sull’intelligenza artificiale possono fungere da compagni virtuali. In alcuni casi potrebbero fornire supporto emotivo ai bambini che hanno difficoltà a fare amicizia o ad affrontare le sfide sociali. Inoltre, questi chatbot possono supportare i bambini che si sentono soli o che hanno difficoltà a condividere i propri sentimenti con gli altri.

Con le giuste garanzie in atto, i chatbot possono anche supportare i bambini che lottano con l’ansia sociale. Questi strumenti possono offrire uno spazio non giudicante per impegnarsi in conversazioni e per sviluppare e praticare le interazioni sociali.

Un esempio di questo tipo di chatbot è Harlie. Harlie è un'app per smartphone che utilizza la tecnologia AI e algoritmi PNL per parlare con gli esseri umani. Tuttavia, invece di limitarsi a rispondere alle domande, Harlie incoraggia il dialogo ponendo domande all'utente. Inoltre, con il permesso dell’utente, Harlie può acquisire informazioni sui modelli vocali da condividere con team sanitari e di ricerca e fornire una terapia mirata.

Quali sono i potenziali rischi?

Impatti sul pensiero critico

Un eccessivo affidamento sull’intelligenza artificiale generativa potrebbe avere un impatto negativo sulle capacità di pensiero critico dei bambini. Questo perché riduce le opportunità di impegnarsi in analisi indipendenti e nella risoluzione dei problemi. Inoltre, l’utilizzo dell’intelligenza artificiale come principale fonte di conoscenza potrebbe compromettere la capacità di mettere in discussione e valutare le informazioni. Consulta la nostra guida per pensare in modo critico online.

E 'importante aiutare i bambini a incorporare gli strumenti di intelligenza artificiale nel loro apprendimento senza fare troppo affidamento su di loro.

Relazioni parasociali e bullismo

C’è una tendenza preoccupante secondo cui i giovani utenti copiano comportamenti di bullismo e li indirizzano verso un chatbot AI. Sui social media, alcuni utenti incoraggiano gli altri a fare il prepotente con i chatbot attraverso il gaslighting e i maltrattamenti generali.

Sebbene i bambini non siano vittime di bullismo nei confronti di altri esseri umani, c’è preoccupazione su come le interazioni virtuali potrebbero normalizzare i comportamenti di bullismo.

Esposizione a contenuti espliciti

L’uso di alcuni chatbot basati sull’intelligenza artificiale potrebbe esporre i bambini a contenuti espliciti e inappropriati. Un esempio di tale chatbot è Replika. Replika è un chatbot AI personalizzato che incoraggia gli utenti a condividere informazioni personali. Più informazioni un utente condivide con esso, più potrà personalizzare le sue risposte.

Sebbene il sito Web affermi di essere riservato solo ai maggiori di 18 anni, non richiede alcuna verifica dell'età. Pertanto, i bambini troveranno pochi ostacoli nell'utilizzo del sito.

Replika incoraggia gli utenti a impegnarsi in conversazioni esplicite per adulti. Li spinge inoltre a pagare una tariffa affinché il chatbot condivida immagini indecenti o faciliti una videochiamata “romantica”. Normalizzare l’atto di pagare per contenuti espliciti potrebbe promuovere una cultura in cui i bambini ritengono accettabile richiedere, ricevere e inviare immagini inappropriate, sia con il chatbot che tra di loro.

Generazione di contenuti illegali

I rapporti suggeriscono che i bambini utilizzano sempre più strumenti di intelligenza artificiale per generare immagini indecenti dei coetanei, facilitati da app di “svestimento” facilmente accessibili. Le immagini indecenti di minori di 18 anni sono illegali, indipendentemente dalle circostanze della loro produzione. Ciò comprende materiale pedopornografico (CSAM) prodotto con tecnologia deepfake.

Sebbene le dinamiche di produzione e distribuzione dei deepfake differiscano da altre forme di abuso sessuale basate su immagini, è probabile che il danno per le vittime sia altrettanto grave, se non di più.

Cosa dicono gli adolescenti della tecnologia deepfake

Per esplorare più in dettaglio gli impatti della tecnologia deepfake, all’inizio di quest’anno abbiamo organizzato una serie di focus group. I focus group hanno coinvolto adolescenti di età compresa tra i 15 e i 17 anni e hanno trattato il tema della misoginia online. Ciò includeva anche le dinamiche di genere che sono alla base molestie e abusi sessuali tra bambini.

I partecipanti hanno discusso degli abusi sessuali legati alla tecnologia deepfake, una questione che ha fatto notizia più volte quest’anno, sia nel Regno Unito che a livello internazionale. Gli adolescenti – in particolare le partecipanti donne – generalmente condividevano l’opinione che essere vittima di abusi deepfake potrebbe in realtà essere più dannoso rispetto alle forme convenzionali di condivisione di immagini non consensuali.

I partecipanti ci hanno detto che l’intensità del danno risiede nella mancanza di azione e controllo che si sentirebbero in un deepfake. Questo perché non sarebbero a conoscenza né acconsentirebbero alla sua produzione:

“Penso che il deepfake forse sarebbe molto peggio, perché con un nudo lo hai preso anche tu, quindi lo sai, mentre del deepfake non ne avrai la minima idea. Potrebbe letteralmente essercene uno in questo momento e nessuno potrebbe saperlo” – Ragazza, di età compresa tra 15 e 17 anni, focus group su Internet Matters.

Prossime ricerche sull’intelligenza artificiale generativa

Il governo del Regno Unito ha deciso di non introdurre una nuova legislazione sull’intelligenza artificiale. Dipenderà invece dai quadri legislativi esistenti per regolare la produzione e l’uso delle nuove tecnologie di intelligenza artificiale.

Non è ancora chiaro se questo approccio leggero proteggerà sufficientemente le persone, in particolare i bambini, dall’intera gamma di rischi posti dall’intelligenza artificiale, compresi i danni emergenti derivanti da nuovi servizi e tecnologie.

È importante che le opinioni e le preoccupazioni dei giovani e dei genitori siano prese in considerazione nella definizione delle politiche sugli usi dell’intelligenza artificiale generativa. Ciò è particolarmente vero quando si tratta dell’uso della tecnologia nell’istruzione, dove le possibili applicazioni possono essere di maggiore impatto.

Quindi, siamo entusiasti di annunciare nuova ricerca sugli impatti dell’intelligenza artificiale generativa sull’istruzione, sulla base delle opinioni di bambini e genitori. La ricerca esplorerà il modo in cui le famiglie e le scuole utilizzano la Gen-AI e le speranze e le preoccupazioni di bambini e genitori per il futuro.

È stato utile?
Dicci come possiamo migliorarlo

Messaggi recenti