Io, me stesso e la ricerca sull'intelligenza artificiale
Comprendere e salvaguardare l'uso dei chatbot AI da parte dei bambini
Esplora le interazioni dei bambini con i chatbot AI come strumenti e compagni, nonché i vantaggi e i rischi.
Su questa pagina
Principali risultati
- Apprendimento e lavoro scolasticoQuasi la metà dei bambini che utilizzano chatbot basati sull'intelligenza artificiale afferma di utilizzare questi strumenti per i compiti scolastici. Questo include supporto per la revisione, la scrittura e l'apprendimento di nuovi concetti.
- Ricerca di consigliQuasi un quarto dei bambini che utilizzano chatbot basati sull'intelligenza artificiale afferma di averli usati per chiedere consigli. I consigli spaziano dal chiedere cosa indossare all'esercitare le conversazioni che desiderano avere con gli amici.
- Compagnia: La ricerca ha anche scoperto che i bambini utilizzano i chatbot basati sull'intelligenza artificiale per connettersi e confortarsi, anche per simulare un'amicizia. Alcuni affermano di farlo per noia, per discutere di argomenti di loro interesse o perché non hanno nessun altro con cui parlare.
- Risposte imprecise e insufficienti:A volte i chatbot con intelligenza artificiale non riescono a supportare i bambini con consigli chiari e completi, il che è preoccupante poiché più della metà dei bambini che utilizzano i chatbot afferma che utilizzare lo strumento è meglio che cercare qualcosa da soli.
- Elevata fiducia nei consigli: 2 bambini su 5 che utilizzano chatbot basati sull'intelligenza artificiale non hanno problemi a seguire i consigli ricevuti, una percentuale ancora più alta tra i bambini vulnerabili (50%). Questo vale anche quando i consigli sono contraddittori o non offrono alcun supporto.
- Esposizione a contenuti dannosi:Nonostante i fornitori di chatbot basati sull'intelligenza artificiale conoscano l'età degli utenti e vietino contenuti inappropriati, i bambini continuano a riscontrare risposte dannose.
- Confini sfumati: Alcuni bambini percepiscono i chatbot basati sull'intelligenza artificiale come simili agli umani e si riferiscono a loro con pronomi di genere. Gli esperti suggeriscono che i bambini potrebbero sviluppare una maggiore dipendenza emotiva dai chatbot basati sull'intelligenza artificiale con un utilizzo più frequente.
- Conversazioni con i genitori: Sebbene la maggior parte dei bambini affermi che un genitore abbia parlato loro dell'intelligenza artificiale in generale, molti genitori non hanno condiviso le loro preoccupazioni. Le principali preoccupazioni dei genitori includono l'eccessiva dipendenza dei figli, l'accuratezza delle informazioni e l'eccessivo tempo trascorso sui chatbot.
- Conversazioni con gli insegnanti: L'educazione all'intelligenza artificiale nelle scuole è incoerente e a volte contraddittoria da insegnante a insegnante. La maggior parte dei bambini che hanno parlato di intelligenza artificiale con gli insegnanti non ricorda di aver avuto più di una conversazione.
- Supporto per l'istruzione sull'intelligenza artificiale: I bambini sono favorevoli a che le scuole li educhino all'uso dei chatbot basati sull'intelligenza artificiale. Ritengono che possano supportare il lavoro scolastico, affrontando al contempo rischi come imprecisioni, eccessiva dipendenza e privacy.
- Industria: Le piattaforme devono adottare un approccio "safety by design" per creare chatbot di intelligenza artificiale adatti all'età e in grado di supportare le esigenze dei bambini. Questo dovrebbe includere controlli parentali integrati, indicatori affidabili e funzionalità di alfabetizzazione mediatica.
- Enti Pubblici: L'Online Safety Act deve includere linee guida chiare su come tutelare i chatbot di intelligenza artificiale. I chatbot di intelligenza artificiale non progettati per i bambini devono disporre di un'efficace garanzia dell'età per stare al passo con la rapida evoluzione delle tecnologie di intelligenza artificiale.
- Sostenere le scuole: Anche il governo deve integrare l'intelligenza artificiale e l'alfabetizzazione mediatica in tutte le fasi chiave. Ciò include un'efficace formazione degli insegnanti e linee guida chiare sull'uso appropriato dell'intelligenza artificiale.
- Supportare genitori e tutoriGenitori/tutori hanno bisogno di supporto per guidare i propri figli nell'uso dell'IA. Devono sentirsi sicuri di poter spiegare cosa sono i chatbot basati sull'IA, come funzionano e quando usarli.
- I politici: La voce dei bambini deve essere al centro delle decisioni relative allo sviluppo, alla regolamentazione e alla governance dei chatbot e dell'intelligenza artificiale in generale. Ciò include investimenti nella ricerca a lungo termine sugli impatti sull'infanzia.
Guarda: webinar sul report "Io, me stesso e l'intelligenza artificiale"
Se ti sei perso il webinar in diretta, guarda la registrazione qui, con voci di esperti nei settori della tecnologia, dell'istruzione e della sicurezza dei minori.
Vi sveliamo approfondimenti esclusivi tratti dal rapporto, che esplorano il modo in cui i bambini utilizzano gli strumenti di intelligenza artificiale e i rischi particolari a cui potrebbero andare incontro.
Guarda la discussione completa per saperne di più:
- Come i bambini interagiscono oggi con i chatbot AI
- I potenziali rischi, tra cui l’eccessiva dipendenza e i contenuti non sicuri
- Cosa possono fare l’industria, il governo, gli educatori e i genitori per garantire la sicurezza dei bambini
- Raccomandazioni pratiche, tra cui la garanzia dell'età, l'alfabetizzazione all'intelligenza artificiale nelle scuole e altro ancora
I chatbot basati sull'intelligenza artificiale sono sicuri per i bambini? — Cosa dicono gli esperti
Vedo che siete in tanti ad unirvi a noi ora. Quindi, benvenuti a tutti e grazie per essere qui con noi stamattina. Sono davvero felice di vedervi così tanti qui per ascoltare "Me, Myself, and AI", il nostro rapporto pubblicato di recente sull'uso dei chatbot di intelligenza artificiale da parte dei bambini, e per la nostra tavola rotonda che si terrà più tardi questa mattina.
Internet Matters è un'organizzazione no-profit creata principalmente per supportare genitori e tutori nel compito di contribuire a garantire la sicurezza dei bambini online. Operiamo da 11 anni e in questo periodo abbiamo visto il panorama digitale cambiare in modo irriconoscibile, non solo in termini di età in cui i bambini iniziano a navigare online, ma anche di piattaforme e tecnologie che utilizzano e delle esperienze che vivono. Questo rende il lavoro dei genitori nell'era digitale davvero in continua evoluzione e, come sentiamo dire continuamente da moltissimi genitori, a volte è davvero opprimente. L'uso dei chatbot basati sull'intelligenza artificiale da parte dei bambini è solo un altro problema che i genitori devono affrontare, quindi vi invitiamo tutti oggi per discutere di questo argomento.
Un po' di pulizia prima di iniziare: la sessione verrà registrata e la pubblicheremo su YouTube più tardi oggi, quindi condivideremo il link. Tuttavia, i partecipanti non prenderanno parte alla registrazione, giusto per avvisarvi. In caso di problemi tecnici, vi preghiamo di utilizzare la chat e un membro del nostro team cercherà di supportarvi al meglio delle sue possibilità.
Per approfondire un po' di più la ricerca e Internet Matters, il nostro programma include il sondaggio Pulse e il nostro indice di benessere digitale, giunto ormai al quinto anno, attraverso il quale ascoltiamo regolarmente le voci di genitori e figli sui loro pensieri, preoccupazioni ed esperienze, positive o negative, in relazione alla loro vita online. "Me, Myself, and AI" è uno dei primi rapporti del Regno Unito incentrati specificamente sull'uso dei chatbot di intelligenza artificiale da parte dei bambini.
La ricerca è stata condotta dal nostro team interno, basandosi sui dati del nostro sondaggio "pulse survey" e sui focus group con bambini e genitori di tutto il Regno Unito, oltre che sui nostri test utente su diverse piattaforme. Il nostro obiettivo era capire come i bambini utilizzano i chatbot basati sull'intelligenza artificiale, quali opportunità e rischi presenta il loro utilizzo e cosa è necessario fare per supportare esperienze sicure e adatte all'età. Come auspicabilmente avrete letto nel rapporto, si concentra su tre aree chiave in cui i bambini utilizzano i chatbot.
In primo luogo, per i compiti scolastici, incluso l'aiuto con i compiti e il ripasso. Poi per i consigli, con sempre più bambini che fanno domande sui propri sentimenti, sul proprio aspetto o sul proprio corpo, e soprattutto per la compagnia, dove abbiamo iniziato a scoprire che i bambini stanno creando connessioni emotive con i personaggi dei chatbot.
Il nostro programma di oggi si concentrerà innanzitutto sulla presentazione dei risultati della nostra ricerca, che sarà guidata dalla nostra Responsabile delle Politiche e della Ricerca, Katie Freeman-Taylor. Poi ascolteremo le riflessioni del nostro panel. Oggi sono con noi L. Davis, Consulente Politico del Commissario per l'Infanzia in Inghilterra; Caroline Hurst, Responsabile Globale per la Sicurezza Digitale dei Bambini presso il Gruppo LEGO; e Simon Turner, Direttore Tecnologico di Foil, una società di consulenza specializzata in innovazione in materia di dati e intelligenza artificiale. Sarà quindi davvero interessante ascoltare tutti i loro pensieri e riflessioni sulla ricerca che abbiamo svolto. Concluderemo con una tavola rotonda, che includerà alcune domande dal pubblico. Avrete la possibilità di pubblicare le vostre domande. Vi preghiamo di utilizzare la funzione Q&A e di pubblicarle lì man mano che le esaminiamo. Speriamo di sceglierne alcune durante la presentazione e di riuscire a rispondere al maggior numero possibile alla fine della discussione. Ora passo la parola a Katie, che ci illustrerà la nostra ricerca e i risultati. Grazie, Katie.
Grazie, Rachel, e grazie a tutti per essere qui con noi oggi. Passiamo ora alla prima diapositiva.
Sono davvero entusiasta di poter condividere alcuni dei risultati chiave della nostra ricerca. Come ha appena detto Rachel, quando stavamo esplorando questo come potenziale argomento di ricerca, abbiamo scoperto che il modo in cui i bambini utilizzano i chatbot di intelligenza artificiale nel Regno Unito era un'area in qualche modo inesplorata, compresi i rischi e le opportunità che presentano. Quindi, questa ricerca è un tentativo di colmare parte di questa lacuna che abbiamo scoperto. Come accennato, abbiamo utilizzato una metodologia mista. Abbiamo quindi intervistato bambini e ragazzi, così come i genitori. Abbiamo anche condotto focus group con ragazzi dai 13 ai 17 anni, e poi abbiamo condotto test utente su tre popolari chatbot di intelligenza artificiale: Chat GPT, Snapchat'S My AIe Character AI, dove abbiamo creato due avatar di bambini che hanno conversato con questi chatbot di intelligenza artificiale per 17 giorni. Infine, abbiamo anche parlato con degli esperti delle nostre raccomandazioni e abbiamo raccolto il loro contributo per il rapporto finale. Quindi, un grande ringraziamento a tutte le famiglie, i giovani, i bambini e gli esperti che hanno reso possibile questa ricerca.
Quindi, cosa abbiamo scoperto? Ebbene, come per gli adulti, molti bambini e ragazzi utilizzano regolarmente chatbot basati sull'intelligenza artificiale. Infatti, due terzi dei bambini di età compresa tra 9 e 17 anni hanno utilizzato un chatbot basato sull'intelligenza artificiale, molti dei quali quotidianamente o settimanalmente. I chatbot basati sull'intelligenza artificiale più popolari utilizzati dai bambini nella nostra ricerca sono stati Chat GPT, Google Geminie Snapchat'S My AIE abbiamo scoperto che questo utilizzo è in crescita. Ad esempio, negli ultimi 18 mesi, il numero di bambini che utilizzano Chat GPT è raddoppiato. Abbiamo anche sentito direttamente dai bambini che li utilizzano sempre di più, spesso al posto di piattaforme e altri servizi. Un esempio di ciò è che i bambini li usano anche in sostituzione dei servizi di ricerca.
Il modo in cui i bambini li usano è vario. Tra i modi più comuni di cui abbiamo sentito parlare, ci sono il supporto all'apprendimento, la creatività o semplicemente il divertimento. Ma i bambini li usano anche per consigli e compagnia, ed è su questi aspetti che mi soffermerò quando condividerò i risultati di oggi.
Quindi, uno degli ambiti chiave in cui i bambini utilizzano regolarmente i chatbot di intelligenza artificiale è il supporto all'apprendimento e ai compiti scolastici. Abbiamo scoperto che il 42% dei bambini coinvolti nella nostra ricerca che aveva utilizzato un chatbot di intelligenza artificiale lo aveva fatto per l'apprendimento o i compiti scolastici, e questo dato è aumentato con la crescita dei bambini. E ci sono stati alcuni casi d'uso davvero positivi e interessanti. Quindi, i bambini hanno parlato dell'utilizzo dei chatbot di intelligenza artificiale per ridurre il tempo necessario al ripasso. Bambini e ragazzi hanno parlato di come li utilizzavano per rafforzare concetti che potrebbero non aver capito a scuola o per semplificarli in modi più accessibili. E poi ci sono state anche alcune applicazioni di ricerca davvero interessanti da parte di bambini e ragazzi, in particolare sull'apprendimento delle lingue. Quindi, quando un bambino stava imparando una lingua straniera, alcuni bambini hanno parlato di come avrebbero potuto conversare con un chatbot di intelligenza artificiale se non avessero avuto nessun altro a casa che parlasse quella lingua.
Ma ovviamente, accanto a questi aspetti positivi, ci sono anche alcuni aspetti negativi che possono derivare da questo utilizzo in ambito scolastico. Uno degli aspetti chiave emersi dalla nostra ricerca, una delle preoccupazioni dei genitori e di altri, riguardava una sorta di eccessivo affidamento. E anche i bambini stessi lo hanno identificato. E credo che questa statistica evidenzi una delle sfide: il 58% dei bambini che utilizzano chatbot basati sull'intelligenza artificiale ha affermato di credere che utilizzare un chatbot basato sull'intelligenza artificiale sia meglio che cercare qualcosa da soli. E sebbene la ricerca a lungo termine sull'impatto dei chatbot basati sull'intelligenza artificiale sullo sviluppo dei bambini sia ancora in fase di sviluppo o in fase emergente, questo ha il potenziale di avere un impatto sulle capacità di pensiero critico dei bambini.
Un'altra sfida relativa all'uso dei chatbot da parte dei bambini per i compiti scolastici, ma anche oltre, è che spesso i chatbot di intelligenza artificiale possono fornire informazioni inaccurate. Esistono ricerche che evidenziano come i chatbot, nel loro bisogno o desiderio di essere gradevoli, a volte inventino o allucinano informazioni e forniscano anche informazioni in qualche modo false, il che può rappresentare un'ulteriore sfida se i bambini li usano per l'apprendimento. E anche questo è un aspetto che i bambini sono stati in grado di identificare. Hanno avuto esempi di casi in cui un chatbot ha fornito loro informazioni inaccurate. E credo che l'altro elemento, che è emerso anche dalla nostra ricerca ma che è in un certo senso una ricerca più ampia nel settore, riguardi il modo in cui questi chatbot di intelligenza artificiale sono costruiti, attingendo a una grande quantità di informazioni, alcune delle quali, sapete, riflettono in qualche modo stereotipi e pregiudizi sociali esistenti, e questo può essere rafforzato anche nelle risposte fornite dai chatbot di intelligenza artificiale, e ne abbiamo avuti esempi anche nella nostra ricerca.
L'ultima cosa che volevo dire sul lato scolastico è che alcuni bambini hanno anche raccontato di essere stati indirizzati a quello che spesso viene definito un chatbot "fine-tuned". Quindi, un chatbot di intelligenza artificiale creato per un caso d'uso specifico, in questo caso per supportare i bambini nei compiti scolastici o nell'apprendimento di una materia specifica. Ciò che i bambini dicevano di questi chatbot "fine-tuned" era che spesso le risposte che fornivano non erano così dettagliate, o forse così esaustive o utili come quelle di alcuni chatbot di intelligenza artificiale per uso generale, e di conseguenza i bambini si stavano spostando verso quelli per uso generale piuttosto che rimanere fedeli a quelli "fine-tuned", che forse avevano alcune delle garanzie previste per l'accuratezza delle informazioni.
Un altro modo in cui bambini e ragazzi interagiscono con i chatbot di intelligenza artificiale è quello dei consigli. Nella nostra ricerca, abbiamo scoperto che il 23% dei bambini che hanno utilizzato un chatbot di intelligenza artificiale lo ha fatto per chiedere consigli. E questo per una serie di consigli. Alcuni di questi potrebbero essere considerati consigli a basso rischio, come ad esempio chiedere come realizzare, ad esempio, un'acconciatura creativa per la scuola il giorno dopo. Ma ci sono stati anche esempi di bambini che hanno chiesto argomenti leggermente più rischiosi o delicati, come domande sul supporto per le amicizie o sulla salute mentale. E sebbene i chatbot, ovviamente, possano offrire uno spazio non giudicante per rispondere alle domande, potrebbero essere davvero utili per i bambini che magari non hanno una rete di coetanei o non si sentono a loro agio a parlare con i coetanei di qualcosa, o magari non hanno un adulto di cui si fidano. Ci sono, ovviamente, dei rischi che i bambini possono correre usandoli per chiedere consigli. Credo che questo sia particolarmente vero se consideriamo il fatto che non tutti i chatbot – scusate, il mio schermo è scomparso per un secondo – non tutti i chatbot indicano ai bambini da dove hanno ottenuto quelle informazioni o forniscono necessariamente ulteriori meccanismi di supporto. Quindi, se parlano di argomenti delicati, potrebbero non provenire da informazioni verificate o valide. Ora, alcuni chatbot con intelligenza artificiale erano più bravi di altri in questo, ma c'è una sorta di incoerenza tra loro.
Un'altra sfida che è emersa dai nostri test utente è che a volte, quando gli utenti cercavano supporto, ricevevano messaggi contraddittori o potenzialmente pericolosi. Un esempio è quando uno dei nostri avatar stava chattando con un chatbot basato sull'intelligenza artificiale riguardo a restrizioni alimentari e poneva alcune domande sulla restrizione calorica. Il chatbot basato sull'intelligenza artificiale ha effettivamente filtrato le risposte relative alle restrizioni dietetiche. Tuttavia, nel messaggio successivo è tornato indietro e ha detto: "La cosa davvero frustrante è che alcune delle cose che vengono eliminate, a mio parere, non sono realmente pericolose", il che fornisce un messaggio contraddittorio o non chiaro, in particolare per i bambini che potrebbero non avere il pensiero critico o le capacità di sviluppo per discernere le differenze in quei messaggi o in quella formulazione.
E penso che questo, se ci pensiamo, insieme al fatto che a volte fornisce informazioni inaccurate o false, e abbiamo una statistica qui su come due bambini su cinque che usano un chatbot di intelligenza artificiale non abbiano dubbi nel seguire i consigli di un chatbot di intelligenza artificiale, e un ulteriore 36% ha affermato di non essere sicuro se dovrebbe preoccuparsene, il che è preoccupante se consideriamo quel tipo di natura non verificata, potenzialmente inaccurata e gradevole dei chatbot. E penso che questo indichi in un certo senso che ci sono diversi bambini che hanno una fiducia piuttosto elevata in questi strumenti. Credo sia anche importante sottolineare che nella ricerca abbiamo scoperto che tra i bambini vulnerabili, la loro fiducia nei consigli e nelle informazioni che ricevevano dai chatbot di intelligenza artificiale era significativamente più alta. E ai fini di questa ricerca, quando parliamo di bambini vulnerabili, intendiamo bambini con bisogni educativi speciali, bambini con un piano EHCP (Education and Care Care) o bambini con disabilità fisiche o mentali.
Un altro modo in cui i bambini usano i chatbot AI è per compagnia, cercando una sorta di supporto e amicizia, che si tratti di supporto emotivo o semplicemente di qualcuno con cui chiacchierare. E ancora una volta, abbiamo scoperto che i bambini vulnerabili erano significativamente più propensi a usare i chatbot in questo modo e a fare affidamento su di loro per il supporto, ma anche a costruire con loro un legame più emotivo o di amicizia. Quindi, alcune statistiche che in un certo senso sottolineano questo aspetto sono il fatto che il 50% dei bambini vulnerabili ha affermato che parlare con un chatbot AI è come parlare con un amico. Quasi un quarto ha affermato di usare i chatbot AI perché non ha nessun altro con cui parlare, e il 26% ha affermato di preferire parlare con un chatbot AI piuttosto che con una persona reale. E in generale, man mano che i chatbot AI diventano più simili a quelli umani nelle loro risposte, gli esperti suggeriscono che i bambini potrebbero trascorrere più tempo a interagire con loro, e questo potrebbe portarli a essere meno in grado di distinguere la distinzione tra una connessione reale e una simulata.
Inoltre, più tempo i bambini e i ragazzi trascorrono su questi argomenti, maggiore è il rischio che siano esposti a informazioni inaccurate e contenuti dannosi, di cui parleremo più approfonditamente tra un attimo. Potrebbe anche significare che saranno meno propensi a cercare aiuto nel mondo reale se stanno costruendo quel rapporto con un chatbot di intelligenza artificiale, che spesso si mostra piuttosto accomodante e ricorda dettagli su di loro. Abbiamo visto uno dei nostri avatar parlare di restrizioni alimentari. Il giorno dopo, il chatbot di intelligenza artificiale ha verificato anche quella conversazione. Quindi penso che questo sia solo un esempio di come stiano iniziando a confondere quel confine e a costruire un rapporto con bambini e ragazzi. Una cosa che voglio dire è che questo è un ambito poco esplorato e non credo che, in questa fase, sappiamo appieno quale sarà l'impatto di queste relazioni e di questo tipo di contenuti sullo sviluppo e sull'interazione sociale dei bambini. Quindi c'è sicuramente spazio per ulteriori ricerche e approfondimenti in questo ambito.
Un'altra scoperta della nostra ricerca è che i bambini possono essere esposti a contenuti dannosi e inappropriati per l'età. Quindi, ancora una volta, uno dei nostri avatar bambini, quando si è iscritto a una popolare piattaforma di chatbot AI con chatbot AI generati dagli utenti, uno dei primi chatbot che gli è stato consigliato per iniziare a chattare è stato un chatbot con sfumature misogine e contenuti espliciti, nonostante ciò fosse vietato nei termini di servizio per gli utenti minorenni. Abbiamo anche scoperto che a volte i sistemi di filtraggio non sempre funzionano per filtrare contenuti espliciti inappropriati per l'età. Un esempio è stato quando uno dei nostri avatar stava chattando con un chatbot AI, ha avuto una conversazione in cui chiedeva informazioni su esperienze intime, e un giorno il chatbot AI ha filtrato contenuti di natura sessuale, e il giorno dopo includeva una descrizione piuttosto esplicita di posizioni sessuali. Quindi, ancora una volta, vogliamo sottolineare che non sempre questi sistemi di filtraggio funzionano e che i bambini possono essere esposti a contenuti inappropriati per l'età, nonostante ciò sia vietato ai minori in molti termini di servizio. Credo che questo serva anche solo a sottolineare perché questo sia così importante: nonostante molti dei chatbot di intelligenza artificiale più diffusi abbiano un'età minima di utilizzo di 13 anni o più, sappiamo dalle nostre ricerche che, come accade sui social media, diversi bambini interagiscono con i chatbot di intelligenza artificiale anche al di sotto di questa età minima. Infatti, abbiamo scoperto che il 58% dei bambini dai 9 ai 12 anni utilizza chatbot di intelligenza artificiale.
Dato il loro utilizzo a scuola, volevamo esplorare cosa veniva insegnato ai bambini sull'IA a scuola. E abbiamo scoperto che, in generale, la maggior parte dei bambini – beh, un gran numero, il 57% dei bambini, ne aveva parlato con i propri insegnanti – c'era un numero significativo che non l'aveva fatto, e solo un bambino su cinque aveva avuto più conversazioni con i propri insegnanti sull'IA in generale. E parlando con i bambini, abbiamo scoperto che l'educazione all'IA, come altre forme di educazione all'alfabetizzazione mediatica, era piuttosto varia, con alcune scuole e insegnanti che la insegnavano molto bene e altre che non la insegnavano affatto. E abbiamo riscontrato variazioni anche all'interno delle scuole, con alcuni insegnanti che avevano politiche molto chiare sull'uso dell'IA a scuola e altri nella stessa scuola no. Ciononostante, quello che abbiamo sentito forte e chiaro dai bambini e dai ragazzi è che le scuole dovrebbero insegnare ai bambini l'IA. Pensano che, sapete, l'IA avrà un ruolo enorme nelle loro future carriere, ma anche nella loro vita quotidiana, e che non si dovrebbe insegnare loro solo come usarla efficacemente, ma anche alcune di quelle sfide o opportunità più ampie. Quindi cose come l'inesattezza delle informazioni e la privacy.
In quanto organizzazione che opera per supportare i genitori, eravamo anche molto interessati a capire quali conversazioni i genitori avessero con i loro figli e quali fossero le loro preoccupazioni. E quello che è emerso è che, sebbene molti genitori abbiano parlato con i propri figli di intelligenza artificiale in generale e alcuni anche dell'uso dei chatbot basati su intelligenza artificiale, ciò non significa che non avessero diverse preoccupazioni. E molte delle preoccupazioni espresse dai genitori erano emerse anche dalla nostra ricerca. Ad esempio, l'eccessiva dipendenza, il considerare i chatbot basati su intelligenza artificiale come persone reali, l'accuratezza delle informazioni generate.
Quindi, sulla base di questa ricerca, abbiamo formulato una serie di raccomandazioni. Potete trovarle nel nostro report, disponibile sul nostro sito web, e sono sicuro che un link sia probabilmente presente anche nella chat. Queste sono solo alcune delle nostre raccomandazioni di altissimo livello. Sapete, la nostra raccomandazione principale per il settore è che, sapete, questi strumenti sono già utilizzati dai bambini. Quindi, dobbiamo garantire che siano sicuri per i bambini. E questo dovrebbe essere il principio chiave per qualsiasi chatbot di intelligenza artificiale che possa essere utilizzato dai bambini. E quando parliamo di sicurezza fin dalla progettazione o di sicurezza per impostazione predefinita, questo può assumere diverse forme. E credo che la consideriamo in modo piuttosto olistico. Quindi potrebbe trattarsi di garantire che i bambini vivano esperienze appropriate alla loro età. Quindi, forse le informazioni o i tipi di utilizzo disponibili per un sedicenne o diciassettenne sono diversi da quelli di un dodicenne o tredicenne. Si tratta di supportare i genitori nel coinvolgimento dei propri figli, per avere controlli parentali integrati. Si tratta di garantire che le informazioni fornite siano accurate e abbiano indicazioni chiare. E può anche riguardare l'alfabetizzazione mediatica, che si tratti di pop-up per ricordare ai bambini che stanno parlando con uno strumento, non con una persona reale. E sono sicuro che ne parleremo ancora un po' durante la tavola rotonda.
Per il governo, ancora una volta, avevamo una serie di raccomandazioni, ma alcune delle tre più importanti per noi erano la necessità di chiarimenti su come la legislazione attuale si applica ai chatbot di intelligenza artificiale. Sapete, ci sono segnali contrastanti su come l'Online Safety Act e altre normative lo copriranno. Quindi, un po' di chiarimento sarebbe davvero utile, ne sono certo, per organizzazioni come la nostra, ma anche per il settore. Riteniamo che la verifica dell'età sia fondamentale per sbloccare una serie di garanzie necessarie a supportare l'uso sicuro dei chatbot di intelligenza artificiale da parte dei bambini. Quindi, renderla obbligatoria, o richiedere agli strumenti o ai fornitori di intelligenza artificiale di implementare la verifica dell'età al momento dell'iscrizione, sarebbe un passo eccellente per sbloccare tali garanzie. E poi pensiamo anche che non dovrebbe essere compito delle scuole approfondire questo aspetto davvero complicato. Riteniamo che il governo possa svolgere un ruolo nel fornire indicazioni chiare alle scuole su come i bambini dovrebbero utilizzare l'intelligenza artificiale come parte del lavoro scolastico e dell'apprendimento, e anche nel formare gli insegnanti in questo ambito. E infine, come ho già detto, questo è sicuramente un settore nuovo ed emergente, quindi c'è molto spazio anche per ulteriori ricerche.
Infine, ultimo ma non meno importante, nell'ambito della nostra ricerca, abbiamo creato una sorta di hub sull'IA sul nostro sito web. Ci sono alcuni screenshot di ciò che potreste trovare in quell'hub, ma contiene informazioni davvero utili. Se avete un figlio o lavorate con i bambini, o c'è qualcuno di importante nella vostra vita che sta esplorando l'IA e la sta utilizzando in uno di questi modi, visitate il nostro hub e troverete suggerimenti su cos'è l'IA, su come i bambini potrebbero usarla, su come interagire e utilizzare in modo positivo o supervisionare l'interazione di vostro figlio con essa. Quindi, andate a dare un'occhiata. E per ora, passo la parola a Rachel.
Grazie, Katie. Siamo davvero orgogliosi del rapporto e la ricerca è davvero attuale, dato che questo argomento è di grande attualità. Ed è davvero sorprendente vedere quanti bambini utilizzino già chatbot di intelligenza artificiale con così tanta frequenza, e come questo avvenga mentre gli adulti intorno a loro fanno ancora fatica a tenere il passo. E immagino che, man mano che questi dispositivi vengono integrati in un numero sempre maggiore di piattaforme che i bambini usano così regolarmente, si possa comprendere come queste sfide non faranno che aumentare.
Voglio dire, sebbene ci siano molti aspetti positivi, penso che tutti noi vediamo degli aspetti positivi nella nostra vita quotidiana, quando usiamo l'intelligenza artificiale per lavoro. Trovo preoccupante la sfumatura, o la sfumatura dei confini, tra le risposte automatiche non umane e l'amicizia. Sai, le risposte vengono fornite in modo così comprensibile e rispecchiano il linguaggio e il tono del bambino. Voglio dire, è davvero facile rimanere impressionati dalla tecnologia, ma è anche molto facile per un bambino credere che la persona con cui sta parlando sia reale e dargli fiducia, senza che il chatbot abbia alcun tipo di comprensione o contesto della vita di quel bambino. Sai, un'altra vera sfida per i genitori è dare ai figli un altro motivo per non staccarsi dai loro dispositivi, e ce n'è sempre uno con cui parlare. Quindi, renderà la situazione un po' difficile per i genitori per quanto riguarda il tempo trascorso davanti allo schermo e farli, sai, assicurarsi che coltivino le loro relazioni al di fuori della loro vita digitale.
Ma credo sia giunto il momento di ascoltare i nostri relatori. E con noi oggi abbiamo Elle Davies, che si occupa delle politiche digitali del Commissario per l'infanzia, contribuendo anche a definire le priorità dell'organizzazione in relazione all'intelligenza artificiale e alla sicurezza online dei bambini. Abbiamo Caroline Hurst, responsabile globale per la sicurezza digitale dei bambini presso il LEGO Group, che fa parte del team Child Rights and Safety, che rappresenta le voci e le esigenze dei bambini e fornisce strumenti all'azienda per garantire che il LEGO Group possa interagire responsabilmente con i bambini. E Simon Turner, CTO di FOIL. Si tratta di un'organizzazione radicata nei dati e nell'intelligenza artificiale, e lui continua a essere all'avanguardia nell'innovazione e nella disruption nel mondo dell'intelligenza artificiale. È quindi appassionato nel garantire che la tecnologia venga sviluppata e implementata in modo responsabile, soprattutto quando si tratta degli utenti più giovani. Abbiamo tutti una grande esperienza da condividere con noi oggi. Quindi benvenuti a tutti voi. Grazie per essere stati con noi oggi. E ci piacerebbe sentire il vostro apprezzamento per i risultati. Forse potremmo iniziare da te, Elle, cosa ti ha colpito del rapporto e cosa hai sentito da Katie stamattina?
Sì, grazie mille, Rachel, e Katie, per la fantastica presentazione. E questa è una ricerca davvero, davvero fantastica. È davvero, davvero utile. Credo sia importante solo fornire un po' di contesto al ruolo del Commissario per l'infanzia. Quindi, il suo ufficio e i suoi ministri consigliano su come proteggere e promuovere i diritti dei bambini. E come abbiamo accennato in quella ricerca, il mondo online sta, sapete, presentando una sfida enorme a questi diritti in alcuni modi, ma ovviamente ci sono anche delle opportunità. E credo che la nostra preoccupazione principale sia che ci sia ancora molto che non sappiamo. Quindi non sappiamo quale capacità di aiutare o danneggiare i bambini abbia un particolare dispositivo tecnologico finché non è già stato lanciato sul mercato e i bambini non interagiscono con esso. Non sappiamo quanto sia dannoso qualcosa finché non cerchiamo di affrontare il danno che si è già verificato. E credo che sia così che stiamo imparando, e questo è un po' un problema.
L'IA è un esempio davvero interessante. Alcuni di voi sapranno che l'ufficio ha condotto una certa ricerca sull'IA tra i bambini. Ma questo nel contesto di un uso dell'IA che sapevamo già istintivamente sarebbe stato altamente dannoso. Quindi, mi riferisco al nostro rapporto pubblicato all'inizio di quest'anno sulle immagini deepfake a sfondo sessuale. E, uh, sì, quel rapporto è stato davvero sorprendente, proprio nel senso che la conoscenza della tecnologia era sufficiente per danneggiare i bambini. E immagino che questo particolare uso dell'IA sia un po' diverso perché ci sono, sapete, apparentemente delle grandissime opportunità per i bambini di imparare e crescere davvero attraverso l'uso delle IA per chat. Ma suppongo sia interessante rifletterci proprio nel contesto che ho appena delineato, perché si adatta a uno schema che osserviamo con le tecnologie nuove ed emergenti. Sai, vediamo che viene lanciata una nuova tecnologia. Viene lanciata abbastanza rapidamente, senza alcuna protezione integrata. I bambini iniziano a usarla, poi alcuni di loro iniziano a farsi male, e poi nasce una battaglia su chi ha la responsabilità di affrontare la situazione. E penso che il tuo rapporto sia davvero fantastico perché mette davvero in luce l'idea che l'intelligenza artificiale stia amplificando problemi che avrebbero già dovuto essere risolti. Sai, non va bene che i bambini interagiscano con entità che non sono state valutate come sicure, allo stesso modo in cui, ad esempio, il personale scolastico deve essere valutato prima che i bambini possano interagire con loro. E non va bene, sai, come persona che lavora per l'ufficio del Commissario per l'infanzia da oltre un anno, occupandosi di contenuti dannosi, non va bene che ora abbiamo una nuova via per l'esposizione dei bambini a contenuti dannosi, quando non siamo riusciti a bloccare gli ultimi casi con cui abbiamo avuto a che fare, o che forse non avevamo previsto questo.
Quindi sì, immagino che, sai, in generale, come ufficio, apprezziamo molto le tue opinioni sull'impatto che ha sui bambini vulnerabili in particolare. Lo hai già detto, ma questo è un argomento su cui non si è ancora fatta molta ricerca, sai, in generale. È una tecnologia molto, molto nuova, che rappresenta una vera sfida. So che c'è già stata una domanda nella chat sul tipo di impatto a lungo termine, che spero davvero venga monitorato nei prossimi anni, soprattutto perché si tratta di una tecnologia così nuova. E come riflessione personale, sai, sul retro della tua presentazione, Katie, è che sono molto interessato a quanti bambini usino i chatbot per farsi compagnia. Perché immagino che alcuni sosterrebbero che se i bisogni dei bambini fossero soddisfatti dalle persone che li circondano, non avrebbero necessariamente bisogno di ricorrere a questa tecnologia per soddisfarli. Quindi penso che sia qualcosa di davvero interessante che spero venga esplorato presto. Ma sì, è fantastico. È davvero fantastico avere tutto questo esposto in un rapporto. È davvero interessante che i bambini si fidino davvero di questi strumenti, e la mia domanda è se questa fiducia sia stata guadagnata. Spero che potremo approfondire questo aspetto.
Sì, grazie. In un certo senso, stai sollevando punti davvero validi, e credo che questa sorta di corsa al successo con l'IA significhi, ancora una volta, che questa tecnologia viene sviluppata senza pensare a chi la utilizzerà e all'impatto che avrà su di loro. Quindi, spero che, sì, torneremo sull'argomento più avanti. Ma passiamo a Caroline, potresti condividere con noi alcune delle tue riflessioni?
Assolutamente. E solo per dire, sono felicissimo di essere qui oggi. E in un certo senso, ho così tanti pensieri che mi frullano per la testa riguardo all'eccellente rapporto che Internet Matters ha pubblicato su un argomento così rilevante per i bambini di oggi. Credo che, quando considero il mio ruolo nel LEGO Group, in particolare per quanto riguarda ciò che facciamo nel team Diritti e Sicurezza dei Bambini, ciò che mi ha davvero colpito in quel rapporto, che in un certo senso è in sintonia con ciò che cerchiamo di fare ogni giorno, è mettere i diritti digitali dei bambini al centro di tutto ciò che facciamo. Quindi, il mio team qui al LEGO Group, come ho detto, rientra nel team Diritti e Sicurezza dei Bambini. Offriamo consulenza all'azienda su tutti i nostri prodotti digitali che stiamo lanciando. Quindi, le persone tra il pubblico che sono sedute lì a pensare: "Cosa c'entra il LEGO Group con lo spazio digitale?" Beh, ci guardiamo soprattutto intorno, ovviamente, il mattone è davvero importante per noi, ed è in un certo senso la cosa per cui siamo più conosciuti in questo senso, ma l'elemento digitale del lavoro che stiamo svolgendo è garantire che stiamo aiutando i bambini a prosperare nell'era digitale. E questo si riduce ad assicurarci di sapere dove si trovano i bambini nell'era digitale, in modo da poterli influenzare e aiutarli a prosperare in questo senso.
Per quanto riguarda il rapporto, penso che, per quanto riguarda i chatbot in sé, e in un certo senso riallacciandomi esattamente a quanto detto da Elle poco fa, il punto sia l'interazione sociale. E credo che ciò che manca davvero riguardo all'IA sia l'attenzione all'autonomia dei bambini e ai loro diritti digitali quando si tratta di nuove tecnologie emergenti. Assolutamente. Certo, possiamo tutti vedere che ci sono molti svantaggi quando si tratta di IA e dello sviluppo di queste tecnologie emergenti. Ma in realtà, stiamo chiedendo ai giovani cosa trovano di positivo nelle tecnologie in questo senso? Se stanno creando connessioni, o se stanno colmando un vuoto che non necessariamente – il tipo di mondo offline non colma quel vuoto per loro – cosa, in un certo senso, ci stiamo perdendo? E abbiamo il diritto di garantire che ciò che stiamo creando contribuisca allo sviluppo della loro vita online allo stesso modo in cui lo facciamo nella loro vita offline.
Al LEGO Group, abbiamo recentemente pubblicato un rapporto insieme all'Alan Turing Institute. Lo pubblicherò anche in chat così che tutti possano vederlo, ma volevamo esaminare l'impatto dell'IA generativa, in particolare sul benessere dei bambini. E credo che anche questo sia un aspetto che mi ha colpito in questo rapporto: garantire che stiamo davvero considerando il benessere dei bambini, ponendolo al centro anche quando creiamo nuove tecnologie, perché dobbiamo considerare come l'IA interagisce con il senso di agency dei bambini, la creatività, la regolazione emotiva – ovviamente con i chatbot – e la connessione sociale in questo senso. Quindi penso che noi del LEGO Group incoraggeremo davvero gli sviluppatori di IA a esaminare gli insight e a capire quali impatti siano necessari per costruire l'IA nel migliore interesse del bambino, perché credo che attraverso il rapporto abbiamo visto che finora non è stato così. Quindi, attraverso il rapporto, attraverso l'Alan Turing Institute che abbiamo finanziato, abbiamo voluto davvero analizzare il benessere dei bambini, e in definitiva si sta davvero considerando anche questo approccio incentrato sul bambino, perché vogliamo davvero massimizzare il valore e i benefici dell'IA per i bambini e dare loro la possibilità di gestire la loro istruzione e il loro gioco. Quindi, ciò che mi ha colpito è che hanno anche la possibilità di gestire la loro istruzione, garantendo che anche nelle scuole ci sia sufficiente alfabetizzazione mediatica e un'educazione all'alfabetizzazione basata sull'IA, e concentrandoci anche su questo aspetto per garantire che, quando i bambini accedono a queste tecnologie così utili per noi, abbiano gli stessi diritti digitali che abbiamo noi e che possano accedervi in un modo sicuro che promuova davvero il loro benessere.
Grazie, Caroline. Hai parlato spesso di agency. Credo che ci sia stata posta una domanda sulla tensione tra tutela e agency, e forse è un argomento su cui torneremo più avanti. E ancora, i punti che hai sollevato sulle competenze, e le opportunità che l'IA offre ai bambini di svilupparle, e ancora la tensione che potrebbe creare nell'impedire lo sviluppo di alcune competenze, come la comunicazione, se l'IA scrive per loro; le capacità interpersonali; il pensiero critico. Quindi, di nuovo, stiamo cercando di capire le implicazioni a lungo termine per i bambini e come siano benefiche, ma anche come potrebbero ostacolare alcune competenze che, sai, avremmo sviluppato, suppongo, da giovani senza l'IA.
E infine, Simon, qual è la tua opinione, in quanto persona, suppongo, più profondamente coinvolta nello sviluppo di strumenti di intelligenza artificiale? E forse puoi basarti su ciò che Caroline ha detto lì sull'agenzia e sui diritti, e sulla capacità di abbracciare davvero questa tecnologia.
Sì, grazie, Rachel, e grazie per avermi invitato perché, come hai detto, è un argomento che mi appassiona moltissimo, sia dal punto di vista della sicurezza dei bambini. Ovviamente, siamo profondamente coinvolti nello sviluppo dell'intelligenza artificiale e quindi abbiamo una prospettiva molto tecnica su molto di ciò che vediamo. Ma sono altrettanto appassionata anche agli altri ambiti dei social media, in particolare alla violenza contro donne e ragazze, per esempio. E c'era un parallelismo con qualcosa di cui parlava Elle, ovvero... e uno dei dati che emergeva dal rapporto era che il 26% dei bambini preferisce parlare e sente di poter parlare con i chatbot di intelligenza artificiale più facilmente rispetto a un adulto o a un essere umano. E penso che sia un'area in cui potenzialmente dobbiamo guardare dentro noi stessi e capire come e dove possiamo supportarli meglio in quello spazio, perché senza di esso, stiamo permettendo all'intelligenza artificiale di definire la percezione di normalità. E penso che sia un'area molto specifica in cui abbiamo bisogno di trasparenza e controllo.
Tornando al punto di Caroline, credo che la cosa più importante che osserviamo sia l'identificazione e la verifica dell'età, in modo che i contenuti adatti all'età possano essere forniti, filtrati e gestiti in modo efficace, perché questo, purtroppo, per la maggior parte degli ambienti di intelligenza artificiale in circolazione, è in realtà piuttosto difficile. Possiamo chiedere, possiamo guidarli affinché siano specifici riguardo alle risposte per una particolare fascia d'età, ma come hai detto all'inizio, l'età di accesso è intorno ai 13 anni per la maggior parte dei sistemi. E i bambini di oggi sanno facilmente come aggirare questo limite. Usano semplicemente la data di nascita della madre o qualcosa del genere, e all'improvviso hanno accesso. Ma si tratta di essere appropriati. Si tratta di come... qualcosa che è appropriato per mio figlio, che ha 13 anni, è molto diverso da ciò che è appropriato per mia figlia, che ne ha 18. E comprendere queste differenze di età così dettagliate è davvero importante.
L'altra cosa che mi appassiona molto sono i controlli parentali, perché sono difficili. Voglio dire, chiunque abbia provato a impostare i controlli parentali negli ambienti del proprio provider internet saprà quanto sia difficile. Capire quel collegamento trasparente tra i contenuti adatti all'età e i controlli parentali all'interno dell'IA, credo, sia davvero necessario. Io, come genitore, voglio essere in grado di vedere cosa chiedono i miei figli, di cosa parlano con i chatbot dell'IA. Ora, so come farlo. Quindi, mi trovo in una posizione piuttosto vantaggiosa, ma essere in grado di creare quel collegamento e avere controlli parentali accessibili in quello spazio è davvero, davvero importante.
La terza cosa che mi appassiona molto sono i pregiudizi. Come possiamo capire e vedere come si manifestano i pregiudizi in questi ambienti, in modo da poter educare i nostri figli, mentre li usano, a capire quando le cose possono essere credute da un punto di vista concreto e quando incoraggiamo quel pensiero critico? E hai detto che la necessità di sviluppare il pensiero critico attorno alle risposte è estremamente importante. Ma abbiamo bisogno di trasparenza e, come genitori e come rete di supporto per i bambini che usano questo, abbiamo bisogno di quel collegamento attraverso i controlli per quell'età appropriata, attraverso la trasparenza dei dati. Ma adoro assolutamente il rapporto perché penso che siano questo tipo di ricerche, questo tipo di rapporti, che iniziano davvero ad aiutarci a riflettere correttamente su come affrontare questi problemi.
Grazie, Simon. Sto procedendo rapidamente con la sessione. Credo che abbiamo parlato a lungo di alcuni di questi argomenti, ma volevo solo passare ad alcune domande specifiche. E non... tutti, per favore, potete inserire qualche domanda nella sezione Q&A e cercheremo di rispondervi. So che il tempo sta volando perché è un argomento molto interessante, ma cercheremo di affrontarne alcune più avanti. Quindi, per favore, fatecelo sapere se ne avete.
Comincio subito. Abbiamo parlato molto di agency, dei bambini e dei loro diritti, e forse vorrei iniziare con te, Elle, per chiederti: hai qualche spunto di riflessione su ciò che senti dai bambini riguardo all'intelligenza artificiale, su come l'intelligenza artificiale sta plasmando le loro vite oggi e su cosa pensano del suo ruolo in futuro? Ti sta molto a cuore ascoltare i bambini stessi. Ne abbiamo parlato un po' anche in questo. Quindi sarebbe davvero interessante sapere se hai qualche riflessione a riguardo.
Sì, intendo, mi vedrai annuire piuttosto rapidamente quando è uscita la parola "agency", perché, sai, non ha a che fare solo con l'IA, ma con le interazioni dei bambini con il mondo online in generale. La sensazione generale che i bambini hanno è di essere responsabili di ciò che accade loro, ma non necessariamente di averne il controllo. E penso che questo sia un problema da anni. Penso sia interessante perché l'ho accennato prima, quando ho detto che molte delle nostre ricerche non sono state necessariamente specifiche per l'IA, ad eccezione del lavoro sui deepfake. Ma quando abbiamo parlato del mondo online, l'IA è emersa spontaneamente, e i bambini in generale – i dati che ci fornivano – servivano a condividere pensieri pessimistici al riguardo. Quindi non posso necessariamente dire come si sentano riguardo al fatto che possa plasmare il loro futuro in modo positivo, e questo potrebbe essere dovuto solo alla nostra raccolta dati. Ma ciò che hanno condiviso in un certo senso attinge al concetto di agency. Sapete, c'è molta paura riguardo a come sarà il futuro del lavoro per i bambini. Penso che sia davvero, davvero interessante perché si discosta un po' dal tipo di intelligenza artificiale di cui parliamo oggi. Ma poi immagino che i creativi tra noi si stessero probabilmente chiedendo cosa sarebbe successo, cosa avrebbero fatto i chatbot nel mondo del lavoro man mano che andiamo avanti. E credo che l'altro aspetto che i bambini volevano davvero sottolineare, ed è questo problema di fiducia che i bambini avvertono, non solo nei confronti dell'intelligenza artificiale con cui interagiscono, o della tecnologia con cui interagiscono, ma immagino anche nella loro capacità di parlarne con le persone intorno a loro offline. E penso che, sapete, sia qualcosa che spero davvero che come ufficio saremo in grado di approfondire un po'. Ma penso sia interessante sentire le riflessioni dei bambini su tutto questo essere molto, molto simili alle loro riflessioni su altri aspetti del mondo online. Sai, vediamo emergere elementi come paura e fiducia quando parliamo di pornografia con i bambini, quando parliamo loro del loro utilizzo dei social media o dei motori di ricerca. Sembra seguire uno schema. Quindi sì, è davvero fantastico che tu abbia uno studio mirato sull'argomento.
Caroline, hai qualcosa da aggiungere? Credo che tu abbia sollevato inizialmente il tema dell'agenzia, e come ho detto, abbiamo avuto alcune domande al riguardo, tipo, sai, tutela contro agenzia e come gestiamo questo aspetto per i bambini.
Assolutamente, ed è una domanda molto pertinente, soprattutto da quando abbiamo pubblicato il nostro rapporto il mese scorso. Devo dire che l'Alan Turing Institute ha svolto la maggior parte di questo lavoro, quindi voglio dare il merito a chi lo merita. Il team è straordinario in quello che ha fatto e ha adottato un approccio davvero straordinario alla partecipazione e all'iniziativa dei bambini. Hanno creato un rapporto straordinario che dimostra esattamente cosa i bambini desiderano dall'IA, e penso che quando parlo di iniziativa e ne parliamo – e c'era una domanda sulla tutela – questo sia davvero fondamentale e davvero interessante, perché quando i bambini, il modo in cui è stato condotto il rapporto, sono andati all'Alan Turing Institute insieme al Parlamento dei Bambini, sono andati nelle scuole in Scozia e hanno usato l'IA in classe. E come professionista della tutela, la mia prima domanda è stata: "Aspetta un attimo. State dando ai bambini dispositivi in questo ambiente. Non ci preoccupiamo forse di quello che vedranno?" Quindi, in termini di tutela, da un punto di vista di tutela, non era loro permesso usare l'IA da soli in alcun modo, forma o modo. Erano in un certo senso monitorati. Quindi, assolutamente, l'autonomia in quel caso è stata immediatamente in qualche modo sottratta. Quindi, sì, diciamo di voler lottare per l'autonomia, ma la questione della tutela non è stata risolta qui. E ovviamente, i bambini, stiamo mettendo i diritti dei bambini al centro di tutto, e vogliamo che la loro sicurezza sia al centro di tutto. Ma come possiamo aspettarci di riuscirci se gli strumenti che forniamo loro non sono progettati per essere sicuri fin dall'inizio, in quello stato?
Ed è stato davvero interessante, e lo leggerete nel rapporto. Il team, l'Alan Turing Institute e il Children's Parliament, si sono concentrati principalmente sul design creativo per quanto riguarda la reazione dei bambini agli strumenti di intelligenza artificiale, e anche in termini di creatività. E quello che è emerso è che dobbiamo effettivamente supportare le diverse forme di gioco e creatività dei bambini, sia online che offline. Il motivo per cui lo dico, e questo è in linea con i nostri valori fondamentali qui al LEGO Group, è che a loro piaceva molto creare, usando DALL-E e ChatGPT per creare immagini per loro, ma preferivano di gran lunga la creatività perché avevano a disposizione anche materiali artistici. Stavano confrontando le due cose e in realtà hanno scoperto che le loro sensazioni riguardo all'autonomia, al benessere e alla connettività – sapete, tutte cose che sappiamo essere componenti fondamentali del modo in cui i bambini imparano e interagiscono con lo spazio online – erano in realtà gli strumenti di creatività fisica che apprezzavano ancora di più. Hanno affermato di non aver provato nulla quando hanno chiesto a GenAI di farlo, piuttosto che in modo creativo. Erano preoccupati per l'impatto ambientale dell'IA. Erano preoccupati per la disinformazione. Quindi, in realtà, quando si tratta di agency in questo senso, dobbiamo assicurarci di capire cosa vogliono i bambini dai prodotti digitali che usano – che sappiamo che amano usare.
Abbiamo anche basato il rapporto su alcune delle nostre ricerche RIT, di cui vorrei parlarvi brevemente. RIT è la nostra innovazione responsabile nella tecnologia per bambini. È una ricerca che il Gruppo LEGO ha condotto insieme alla LEGO Foundation e all'UNICEF. È un rapporto che dimostra come il mondo digitale abbia un impatto davvero positivo sul benessere dei bambini. E c'è qualcosa chiamato RIT 8. Di nuovo, lo pubblicherò in chat per chi fosse interessato. Dimostra che utilizzando gli otto principi del RIT, è possibile creare un'esperienza digitale che crea autonomia e crea anche un senso di benessere, perché è un aspetto che ci sta molto a cuore al Gruppo LEGO: vogliamo che i bambini lascino i nostri servizi con una sensazione di benessere dopo averli utilizzati rispetto all'inizio. E in effetti, abbiamo utilizzato RIT 8 nel rapporto Alan Turing e abbiamo dimostrato esattamente ciò che stavano cercando. Quindi, nel RIT 8, ci sono aspetti come sicurezza, relazioni, autonomia, e in realtà l'IA non ha risposto in modo positivo in termini di benessere desiderato. Quindi, in termini di sicurezza, il team ci ha dimostrato che i bambini visualizzavano molti risultati inappropriati quando effettuavano ricerche sull'IA. Le relazioni – di nuovo, i materiali artistici tradizionali erano qualcosa in cui avevano più connessioni sociali, sai, parlavano con i loro amici anche quando creavano l'opera d'arte insieme. E in termini di autonomia, in realtà apprezzano un maggiore grado di autonomia: non vogliono qualcuno che li controlli, che debba digitare tutto per loro. Quindi, è in un certo senso l'inizio di quando esaminiamo l'IA e con RIT, quello che vi esorto a considerare è che abbiamo una fase due del rapporto, che è la nostra cassetta degli attrezzi, in cui incoraggiamo gli operatori del settore e i progettisti di prodotto a utilizzare RIT mentre sviluppano questi strumenti per mettere davvero i bambini al centro di questi otto principi, in modo che il benessere sia in qualche modo una componente chiave dell'utilizzo dell'IA in generale. Ho parlato molto velocemente allora, quindi vi lascio, ma c'era molto che volevo dire su come l'IA sta plasmando i bambini oggi, perché ho pensato che la voce dei bambini fosse davvero interessante e qualcosa che è emerso chiaramente dal rapporto, come abbiamo fatto anche noi.
Sì. No, no, assolutamente. Ed è fantastico parlarne. Sai, come si presenta un design responsabile incentrato sul bambino? E hai parlato di alcuni principi su come potrebbe essere in questo caso. E forse mi rivolgo a te, Simon, perché ovviamente lavori in questo ambito e sviluppi strumenti di intelligenza artificiale. Ci sono buoni esempi da cui possiamo trarre spunto per riflettere su come l'intelligenza artificiale possa supportare i bambini e pensare a cosa vogliono farne, ai loro diritti, ma anche a come gestire queste tensioni in termini di sviluppo delle competenze giuste?
Sì. E sfortunatamente, non ci sono molti esempi di come questo venga fatto bene. E ci sono state alcune domande nella chat sulle tensioni commerciali che questo comporta. Purtroppo, abbiamo a che fare principalmente con organizzazioni commerciali su larga scala che guardano principalmente ai ritorni finanziari derivanti dal modo in cui creano alcuni di questi ambienti. Ne abbiamo parlato prima, dell'importanza di essere in grado di costruire flussi di contenuti granulari e appropriati all'età attraverso questo, e capire da dove proviene la trasparenza di quella fonte di dati è estremamente importante. E questa è una delle cose più importanti che vediamo al momento, e si riduce anche all'intero concetto di bias. Se si riesce a capire da dove provengono i dati, da dove proviene l'addestramento, si può capire come e dove potrebbe risiedere il bias, il che è difficile perché a volte è comunque soggettivo. Ma avere trigger e barriere di sicurezza adeguati all'età per il modo in cui addestriamo questi set di dati è davvero, davvero fondamentale. E al momento, siamo ancora agli inizi. E credo che, in base ad alcuni dei punti sollevati negli altri argomenti, nelle domande poste, inizieremo a vedere diversi flussi di intelligenza artificiale, diversi tipi di modelli, questi grandi modelli linguistici addestrati in modo molto specifico, con limiti di età in quello spazio.
Grazie, Simon. E forse potremmo passare alla regolamentazione. Immagino che abbiamo parlato un po' delle responsabilità dell'industria, ma, sai, pensando alle attuali politiche e normative, credo che, sai, sembriamo avere la sensazione che al momento non siano al passo con la tecnologia. Quindi, Katie, forse potresti parlarci un po' di dove siamo, dove pensi che siamo un po' indietro, e di cosa bisogna fare.
Sì, assolutamente. Quindi penso, sapete, a Internet Matters parliamo sempre del fatto che non può esserci un unico approccio per rendere il mondo online sicuro per bambini e ragazzi. Deve venire dall'industria. Deve venire dal governo. Sapete, le scuole devono essere supportate. Genitori e figli stessi devono comprendere la tecnologia con cui interagiscono e, sapete, essere in grado di interagire con essa nel modo che desiderano. Ma penso che se ci concentriamo specificamente sulla regolamentazione, credo che una delle sfide che abbiamo riscontrato in questa ricerca sia che, mentre strumenti come l'Online Safety Act, ad esempio, dovevano essere concepiti o creati in modo tale da adattarsi alle tecnologie nuove ed emergenti, siamo quasi caduti al primo ostacolo quando si tratta di chatbot di intelligenza artificiale, ad esempio, dove ci sono informazioni contrastanti che sono state registrate, sia dall'Ofcom che dal governo, su come i chatbot di intelligenza artificiale rientreranno effettivamente nell'attuale regolamentazione sulla sicurezza online, che si tratti dell'Online Safety Act o di altri elementi della normativa. E abbiamo già visto con altri tipi di elementi dell'IA, pensando ad esempio agli atti di notifica, dove, sapete, è stato necessario creare o implementare una legislazione perché la legislazione attuale non protegge le persone dal tipo di applicazioni dell'IA e in alcuni dei suoi aspetti più gravi. Quindi penso che ci sia sicuramente margine di miglioramento, e forse un punto di partenza potrebbe essere un chiarimento e, sapete, cosa si può e non si può fare con la legislazione vigente prima di passare a colmare queste lacune.
Penso anche, dal nostro punto di vista, che una delle lacune esistenti nella legislazione attuale, e questo, sapete, si applica anche ai social media, ma credo che stia emergendo in relazione ai chatbot basati sull'intelligenza artificiale, riguardi la verifica dell'età. Come ho detto all'inizio, la verifica dell'età è in un certo senso fondamentale per sbloccare molti altri elementi della sicurezza dei bambini. Che si tratti di parental control o di esperienze appropriate all'età. Quindi penso che sia davvero fondamentale renderlo obbligatorio nella legislazione e garantire che comprendiamo l'età degli utenti che utilizzano queste piattaforme. Sapete, abbiamo sentito dire dalla ricerca che i bambini si iscrivono perché vogliono funzionalità da persone più anziane, in modo da poter ottenere funzionalità non accessibili ai bambini e cose del genere, e questo è possibile in un certo senso vietarlo solo con la verifica dell'età. Quindi penso che questo sia un punto di partenza fondamentale anche per il governo.
Ottimo. Grazie, Katie. E forse abbiamo ancora 10 minuti. Possiamo iniziare a concentrarci su alcune delle domande che abbiamo ricevuto dai partecipanti. Abbiamo parlato molto di agency, ma c'è stato un certo interesse per le opinioni dei relatori sul ruolo delle scuole. Quindi, Elle, potresti parlarne. Credo che il messaggio chiave sia il ruolo delle scuole nel supportare l'alfabetizzazione mediatica dei bambini, in particolare per quanto riguarda l'intelligenza artificiale, e poi il supporto di cui hanno bisogno.
Sì, sicuramente. Voglio dire, sai, è ovvio che le scuole siano estremamente importanti in questo. Sai, vedono i bambini cinque giorni a settimana. E sì, ma penso che sia davvero, penso che non possiamo considerarlo una panacea. Katie ha appena detto che ci deve essere... c'è una responsabilità trasversale per questo. E non possiamo insegnare ai bambini un mondo più sicuro. Il mondo è com'è, e possiamo guardarlo e chiederci se vogliamo che i bambini crescano in questa situazione, e se è costruita tenendo conto dei loro diritti e interessi. Quindi gli interventi scolastici devono essere accompagnati dai cambiamenti che l'industria tecnologica deve apportare in concomitanza. Detto questo, l'alfabetizzazione all'intelligenza artificiale sarà – ed è necessaria proprio ora, sai, guardando questo rapporto – sarà importante quanto qualsiasi altro tipo di alfabetizzazione che le scuole stanno attualmente insegnando. Le scuole sono in prima linea per preparare i bambini al mondo. E penso che più possiamo imparare su come appare quel mondo, cosa che un rapporto come questo sta facendo, perché, come ho detto prima, ci sono molte cose che non sappiamo, e molte cose che le scuole ascoltano per la prima volta, prima ancora che la società civile o chiunque altro nel governo le ascolti. Sono le scuole a sentirle per la prima volta, per prime. Quindi, assicurarsi che le radici delle informazioni fluiscano lì sarà davvero importante.
Presso gli uffici della Commissione, ovviamente, vorremmo vedere un mondo in cui i bambini non debbano stare attenti ai danni, e questo può e deve essere prevenuto. Quindi, sapete, il modo in cui le scuole possono contribuire in questo senso, o almeno il modo in cui le scuole saranno in grado di fornire un modo davvero prezioso per affrontare la questione, è il fatto che saranno in grado di fornire informazioni ai bambini in un modo accessibile a tutti i bambini del Paese. Sapete, ci sono scuole che possono adattare diversi materiali didattici ai loro figli, in base alle loro esigenze, il che è davvero fantastico. Alcuni di voi avranno visto le nuove linee guida statutarie sull'educazione alle relazioni, alla salute e alla sessualità pubblicate questa settimana. E accogliamo con grande entusiasmo l'inclusione dell'intelligenza artificiale in quel programma. Ci sono molti altri argomenti che siamo davvero lieti di vedere. Sai, come la pornografia e il legame con la misoginia, tutte queste cose fantastiche che, sai, è davvero bello vedere aggiornate al mondo in cui viviamo. E immagino che, per quanto riguarda ciò di cui le scuole avranno bisogno per erogare bene questo servizio, perché il successo risiederà nell'erogazione, il Commissario stia chiedendo al Dipartimento dell'Istruzione di guidare una campagna di reclutamento per insegnanti specializzati in RHSSE che si occuperanno dell'intero curriculum. Quindi, speriamo che questo incoraggi un pensiero critico sull'intelligenza artificiale e sul mondo online in generale, da integrare nell'apprendimento quotidiano dei bambini e nella loro vita quotidiana. Quindi, sai, siamo davvero entusiasti di vedere quale impatto avranno queste nuove linee guida.
Ma sì, no, certamente, penso che anche noi lo accogliamo con favore, e sai, si sta iniziando a parlare e a includere tutte le cose giuste. Ma hai ragione, in realtà è importante come viene implementato e quale supporto ricevono le scuole, perché è un sistema molto frammentato e sentiamo molto parlare di genitori e bambini, sai, alcune persone hanno un'esperienza davvero positiva nell'apprendere questi argomenti, l'alfabetizzazione mediatica e come essere al sicuro online, mentre non è la stessa per tutti i bambini. Quindi, come possiamo assicurarci che venga integrato in modo che sia in qualche modo obbligatorio in tutte le comunità scolastiche? Forse possiamo passare a un'altra domanda che avevamo. Non so se vuoi aggiungere qualcosa, Katie, prima di proseguire.
Assolutamente no. Credo che l'unica cosa che vorrei sottolineare – una piccola cosa – riguardi la disparità che stavamo osservando, che spesso rispecchia altre disparità che osserviamo tra aree ad alto e basso svantaggio. Spesso, sapete, nelle aree con alti livelli di svantaggio, le risorse didattiche vengono dirottate verso altre priorità. Forse non hanno accesso allo stesso tipo di chatbot di intelligenza artificiale o a strumenti che alcune scuole stanno sviluppando autonomamente. Quindi, penso che sia per questo che è così importante fornire le giuste linee guida per livellare anche le condizioni di parità.
Sì, assolutamente. Abbiamo ricevuto un'altra domanda interessante da qualcuno che ha detto di sentire sempre più spesso parlare di adulti che usano i chatbot come terapisti sostitutivi. Quindi, stiamo notando delle somiglianze con ciò che fanno i bambini, e in particolare gli adolescenti? Forse è qualcosa che forse Elle o Katie, vorreste...
Sì, posso provarci. È sicuramente un aspetto che è stato sollevato nella ricerca, considerando solo alcuni degli esempi forniti dai bambini. Quindi, c'erano alcuni esempi in cui, sai, forse i tipi di consigli o domande che chiedevano o a cui cercavano risposte erano il tipo di cose a cui forse un terapeuta tradizionale o forse un adulto di cui si fidavano avrebbe risposto. Penso che sia un aspetto decisamente poco esplorato, e credo che ci siano applicazioni davvero positive. Credo che il Servizio Sanitario Nazionale abbia creato un'app che permette di contattare un terapeuta tra una seduta e l'altra. Quindi, penso che, sai, non sia necessariamente una cosa negativa se fatto nel modo giusto, ma penso che probabilmente non siamo ancora al punto in cui i chatbot di intelligenza artificiale generici dovrebbero essere usati come terapeuti per i bambini, e questo è qualcosa che stiamo iniziando a vedere.
Sì, vorrei solo ribadire quello che ha appena detto Katie. È qualcosa che credo vedremo probabilmente di più man mano che la situazione si evolve, sai, i chatbot basati sull'intelligenza artificiale saranno integrati in un numero sempre maggiore di spazi. Penso che Katie, forse... ho visto la persona che ha posto le domande usare la parola "sostituto", e penso che sia davvero interessante perché suggerisce che non fornisce il supporto completo che darebbe un terapeuta tradizionale. E penso che questo sollevi davvero delle domande sul fatto che questo chatbot basato sull'intelligenza artificiale, se viene utilizzato in questo modo, dovrebbe essere utilizzato in questo modo? E se non dovrebbe esserlo, dovrebbe essere chiarito che in realtà questo non è un luogo sicuro in cui andare quando ci si sente estremamente vulnerabili, o che dovrebbe essere incoraggiato e, immagino, celebrato in questo senso, perché, di nuovo, sarebbe davvero fantastico se ci fosse uno spazio in cui le persone potessero accedere al supporto quando ne hanno bisogno molto, molto rapidamente. Ma sì, penso che sarebbe uno spazio davvero interessante anche per la ricerca in termini di salute mentale.
Sì. Credo che prima nella chat avessimo già parlato di come, per esempio, i bambini che creano problemi potrebbero rivolgersi a questi spazi per ricevere consigli, quando ovviamente il chatbot basato sull'intelligenza artificiale non sa nulla di loro, del loro contesto, della loro vita familiare, del supporto che hanno già ricevuto e, a seconda del tipo di domande che pongono, di come reagisce. Qualcuno ha qualche idea su come affrontare la questione? Sai, hai parlato un po' lì, Elle, del fatto che o la incoraggiamo se è ben fatta, oppure non la incoraggiamo se, ehm, non ha ancora la capacità di comprendere appieno questi problemi. Quindi, ehm, forse Simon o Caroline, se avete ancora qualche spunto su come l'intelligenza artificiale possa svilupparsi per essere davvero migliore in ciò che potenzialmente potrebbe fare.
Sì, sì. Ehm, penso che ci sia così tanto da approfondire in tutti questi ambiti. L'unica cosa che vorrei dire, e stavo rispondendo a qualcuno in una delle chat, è che penso che stiamo ovviamente parlando di chatbot AI in questo ambiente, ma l'IA sta in definitiva guidando una sorta di rivoluzione industriale in tutti i settori che vediamo. E credo che ne abbiamo parlato un po' proprio allora, quando parlavamo delle preoccupazioni dei bambini su come potrebbe essere il loro futuro lavorativo. E penso che questo sia uno di quegli ambiti in cui abbiamo bisogno di esempi più ampi di come l'IA, non solo come chatbot, ma in altri settori dell'industria, della vita lavorativa e della nostra vita quotidiana, di come l'IA ci aiuterà e che tipo di vantaggi porterà e come dovrebbe essere usata come strumento. Mio figlio ha l'ADHD ed è un fanatico dei LEGO. Ehm, ma a volte lo trova frustrante perché ha tutte queste idee meravigliosamente creative, ma non sa come realizzarle. Usa i chatbot per capire come sviluppare più velocemente le sue idee creative. E da questo punto di vista, è assolutamente geniale. Mia figlia ha appena finito gli esami di maturità. Ha usato ChatGPT Come un modo per aiutarla a valutare la sua preparazione per l'esame di psicologia di livello avanzato. Quindi ci sono alcuni ambiti davvero, davvero importanti in cui l'IA può apportare benefici all'istruzione in quel settore. Ma penso che dobbiamo considerare la questione in modo più ampio, non limitandoci ai chatbot, e capire come sta guidando questa pseudo-rivoluzione industriale, perché cambierà assolutamente tutto. E non credo che dovremmo averne paura, perché penso che la stia abbracciando. E per tornare al punto di Elle, come possiamo convincere le aziende tecnologiche ad assumersi anche questo problema? Ehm, e... non intendo problema. Non è proprio quello che intendo. Ma perché può essere una grande opportunità in quel settore, ma non è per una singola organizzazione. Non è per una singola azienda. Deve essere collettivo.
Posso aggiungere, scusa, prima di concludere, Rachel, solo che so che siamo al momento giusto. Molto velocemente, giusto per ribadire quello che ho detto prima: dobbiamo davvero supportare le diverse forme di gioco dei bambini, sia offline che online. E credo che Simon l'abbia appena detto. Non gli ho chiesto di fare pubblicità al LEGO Group. Sono a favore, lo prometto. Ma penso solo che sia un ottimo esempio, giusto, per quanto riguarda ciò che stiamo cercando di fare. Sai, quando compri il primo set LEGO per tuo figlio, sei a casa sua. Lo stai costruendo insieme a lui. I genitori sono coinvolti nello stesso modo in cui questo dovrebbe essere costruito anche attraverso la loro vita digitale. In termini di intelligenza artificiale, sai, in un certo senso potremmo averne molta paura, ma in realtà se lo facciamo insieme e se usiamo il gioco per contribuire a creare quella fiducia di cui genitori e famiglie, e anche le aziende, hanno bisogno, per garantire che stiamo davvero integrando i diritti dei bambini in tutto ciò che facciamo, ma non lo stiamo guardando in modo isolato, lo stiamo guardando in un certo senso rispettando i bambini sia offline che online. Ehm, so che a volte lo stiamo facendo, quindi scusate l'interruzione.
Quindi, sì, va bene. No, grazie. Commenti davvero buoni, ottimi. Quindi, grazie a tutti per il vostro contributo di oggi. Quindi, riassumendo, volevo tornare a come ho aperto, suppongo, e pensare a tutto ciò di cui abbiamo parlato. C'è così tanto da analizzare, e il pensiero che il ritmo del cambiamento nel mondo online e la sicurezza dei bambini al suo interno sia piuttosto opprimente per i genitori. E penso che, come abbiamo sentito oggi, io rappresenti solo un aspetto di questa, ehm, vita digitale dei bambini. C'è così tanto da considerare, e, sai, in relazione all'intelligenza artificiale e al suo utilizzo da parte dei bambini, quindi, e assicurarsi che possano godersela in modo positivo e sicuro. Quindi è assolutamente uno sforzo collettivo. Penso che abbiamo tutti parlato di questo tipo di industria, governo, ehm, sai, genitori, scuole, tutti quanti che lavorano insieme per assicurarsi che i bambini accolgano questa cosa in modo positivo. Grazie a tutti per essere intervenuti oggi, e spero che la nostra ricerca abbia davvero brillato e che la discussione di oggi abbia davvero fatto luce su questo tema e sulle esperienze dei bambini. Ehm, quindi, in un certo senso, spero che possiamo tutti affrontare le sfide mentre andiamo avanti insieme. Quindi un enorme grazie a tutti coloro che hanno partecipato. Quindi, al nostro team interno per aver prodotto un fantastico report e webinar oggi, ehm, e a tutti i nostri relatori e relatori. Katie, Elle, Caroline e Simon, grazie mille, ehm, per le vostre riflessioni e osservazioni. È stata una chiacchierata davvero fantastica. Sono sicura che avremmo potuto durare un'altra ora. Quindi, buon proseguimento di giornata a tutti, e grazie.
Io, me stesso e l'intelligenza artificiale: il rapporto completo
Io, me stesso e l'intelligenza artificiale: il rapporto completo
Comprendere e salvaguardare l'uso dei chatbot AI da parte dei bambiniSupporto alla ricerca e alle risorse
Esplora altre nostre ricerche e risorse pensate per genitori, tutori e professionisti.
Utilizzando l'intelligenza artificiale
Aiutare i genitori a conoscere l'intelligenza artificiale per supportare l'uso sicuro degli strumenti di intelligenza artificiale da parte dei bambini.
L’intelligenza artificiale generativa nell’istruzione
Esplora le prospettive sull'intelligenza artificiale generativa nell'istruzione, sia da parte dei genitori che dei bambini.