Ich, ich selbst und die KI-Forschung
Verständnis und Schutz der Nutzung von KI-Chatbots durch Kinder
Erkunden Sie die Interaktionen von Kindern mit KI-Chatbots als Werkzeug und Begleiter sowie die Vorteile und Risiken.
Auf dieser Seite
- Die wichtigsten Ergebnisse
- Video des gesamten Webinars
- Siehe den vollständigen Bericht
- Unterstützende Ressourcen
Die wichtigsten Ergebnisse
- Lernen und SchularbeitenFast die Hälfte der Kinder, die KI-Chatbots nutzen, geben an, die Tools für Schularbeiten zu verwenden. Dazu gehören Hilfe beim Wiederholen, Unterstützung beim Schreiben und das Erlernen neuer Konzepte.
- Rat suchenFast ein Viertel der Kinder, die KI-Chatbots nutzen, geben an, diese schon einmal genutzt zu haben, um Rat zu suchen. Die Ratschläge reichen von der Frage, was sie anziehen sollen, bis hin zum Einüben von Gesprächen, die sie mit Freunden führen möchten.
- GesellschaftDie Studie ergab auch, dass Kinder KI-Chatbots nutzen, um Kontakte zu knüpfen und Trost zu finden, auch um Freundschaft zu simulieren. Manche sagen, sie tun dies aus Langeweile, um Themen zu diskutieren, die sie interessieren, oder weil sie sonst niemanden zum Reden haben.
- Ungenaue und unzureichende Antworten: KI-Chatbots können Kindern manchmal keine klaren und umfassenden Ratschläge geben. Das ist besorgniserregend, da mehr als die Hälfte der Kinder, die Chatbots verwenden, sagen, dass die Verwendung des Tools besser ist, als selbst nach etwas zu suchen.
- Hohes Vertrauen in die Beratung: Zwei von fünf Kindern, die KI-Chatbots nutzen, haben keine Bedenken, den erhaltenen Ratschlägen zu folgen. Bei gefährdeten Kindern ist dieser Wert sogar noch höher (2 %). Dies gilt auch dann, wenn die Ratschläge widersprüchlich oder nicht hilfreich sind.
- Exposition gegenüber schädlichen Inhalten: Obwohl Anbieter von KI-Chatbots das Alter der Benutzer kennen und altersunangemessene Inhalte verbieten, werden Kinder immer noch mit schädlichen Reaktionen konfrontiert.
- Verschwommene GrenzenManche Kinder empfinden KI-Chatbots als menschenähnlich und sprechen sie mit geschlechtsspezifischen Pronomen an. Experten gehen davon aus, dass Kinder mit zunehmender Nutzung von KI-Chatbots emotional stärker abhängig werden könnten.
- Gespräche mit Eltern: Während die Mehrheit der Kinder angibt, mit einem Elternteil über KI im Allgemeinen gesprochen zu haben, haben viele Eltern ihre Bedenken nicht geäußert. Zu den größten Sorgen der Eltern zählen die übermäßige Abhängigkeit der Kinder, die Ungenauigkeit der Informationen und die zu lange Zeit, die sie mit Chatbots verbringen.
- Gespräche mit Lehrern: Der Unterricht über KI in Schulen ist von Lehrer zu Lehrer uneinheitlich und teilweise widersprüchlich. Die meisten Kinder, die mit Lehrern über KI gesprochen haben, erinnern sich nicht an mehrere Gespräche.
- Unterstützung der KI-BildungKinder befürworten es, wenn Schulen sie im Umgang mit KI-Chatbots schulen. Sie sind der Meinung, dass dies die Schularbeit unterstützen und gleichzeitig Risiken wie Ungenauigkeit, übermäßige Abhängigkeit und Datenschutzrisiken minimieren kann.
- BranchePlattformen müssen einen Safety-by-Design-Ansatz verfolgen, um altersgerechte KI-Chatbots zu entwickeln, die die Bedürfnisse von Kindern unterstützen. Dies sollte integrierte Kindersicherungen, vertrauenswürdige Wegweiser und Funktionen zur Medienkompetenz umfassen.
- Behörden: Das Online-Sicherheitsgesetz muss klare Richtlinien zum Schutz von KI-Chatbots enthalten. KI-Chatbots, die nicht für Kinder entwickelt wurden, benötigen eine wirksame Alterssicherung, um mit der rasanten Entwicklung der KI-Technologien Schritt zu halten.
- Unterstützung von Schulen: Die Regierung muss KI und Medienkompetenz in allen Schlüsselphasen verankern. Dazu gehören eine effektive Lehrerausbildung und klare Leitlinien für den angemessenen Einsatz von KI.
- Unterstützung von Eltern und Betreuern: Eltern/Erziehungsberechtigte benötigen Unterstützung bei der KI-Nutzung ihres Kindes. Sie sollten selbstbewusst darüber sprechen können, was KI-Chatbots sind, wie sie funktionieren und wann sie eingesetzt werden sollten.
- PolitikerDie Stimme von Kindern muss bei Entscheidungen über die Entwicklung, Regulierung und Steuerung von KI-Chatbots und KI im Allgemeinen im Mittelpunkt stehen. Dazu gehört auch die Investition in langfristige Forschung zu den Auswirkungen auf die Kindheit.
Ansehen: Webinar zum Bericht „Ich, ich selbst und KI“
Wenn Sie das Live-Webinar verpasst haben, können Sie sich hier die Aufzeichnung mit Expertenstimmen aus den Bereichen Technologie, Bildung und Kindersicherheit ansehen.
Wir geben exklusive Einblicke in den Bericht und untersuchen, wie Kinder KI-Tools nutzen – und welche besonderen Risiken für sie bestehen können.
Sehen Sie sich die gesamte Diskussion an, um Folgendes zu erfahren:
- Wie Kinder heute mit KI-Chatbots interagieren
- Die potenziellen Risiken, einschließlich übermäßiger Abhängigkeit und unsicherer Inhalte
- Was Industrie, Regierung, Pädagogen und Eltern tun können, um Kinder zu schützen
- Praktische Empfehlungen, darunter Alterssicherung, KI-Kompetenz in Schulen und mehr
Sind KI-Chatbots sicher für Kinder? – Was die Experten sagen
Ich sehe, dass sich jetzt viele von Ihnen zu uns gesellen. Herzlich willkommen und vielen Dank, dass Sie heute Morgen dabei sind. Ich freue mich sehr, dass so viele von Ihnen bei uns sind, um „Ich, ich selbst und KI“, unseren kürzlich veröffentlichten Bericht über die Nutzung von KI-Chatbots durch Kinder, zu hören und an unserer Podiumsdiskussion später heute Vormittag teilzunehmen.
Internet Matters ist eine gemeinnützige Organisation, die Eltern und Erziehungsberechtigte dabei unterstützt, ihre Kinder online zu schützen. Wir sind seit elf Jahren aktiv und haben in dieser Zeit einen enormen Wandel der digitalen Landschaft miterlebt – nicht nur im Hinblick auf das Alter, in dem Kinder online gehen, sondern auch auf die Plattformen und Technologien, die sie nutzen, und ihre Erfahrungen. Dadurch verändert sich die Erziehungsarbeit im digitalen Zeitalter ständig, und wie uns immer wieder viele Eltern berichten, ist sie manchmal wirklich überwältigend. Die Nutzung von KI-Chatbots durch Kinder ist ein weiteres Problem, mit dem Eltern sich auseinandersetzen müssen. Wir laden Sie daher herzlich ein, heute bei uns zu sein und dieses Thema mit uns zu diskutieren.
Eine kleine organisatorische Anmerkung vorab: Die Sitzung wird aufgezeichnet und wir veröffentlichen sie später auf YouTube. Den Link dazu teilen wir Ihnen gerne mit. Die Teilnehmer werden jedoch nicht an der Aufzeichnung teilnehmen. Sollten Sie dennoch technische Probleme haben, nutzen Sie bitte den Chat. Ein Mitglied unseres Teams wird Sie bestmöglich unterstützen.
Um etwas ausführlicher auf Forschung und Internet Matters einzugehen: Unser Programm umfasst unsere Pulsumfrage und unseren Digital Well-Being Index, der nun im fünften Jahr erscheint und über den wir regelmäßig die Meinung von Eltern und Kindern zu ihren Gedanken, Sorgen und Erfahrungen – ob positiv oder negativ – in Bezug auf ihr Online-Leben erfahren. „Me, Myself, and AI“ ist einer der ersten britischen Berichte, der sich speziell mit der Nutzung von KI-Chatbots durch Kinder befasst.
Die Studie wurde von unserem internen Team durchgeführt und stützte sich dabei auf Daten aus unseren Pulsumfragen und Fokusgruppen mit Kindern und Eltern aus ganz Großbritannien sowie auf unsere eigenen Nutzertests auf verschiedenen Plattformen. Wir wollten verstehen, wie Kinder KI-Chatbots nutzen, welche Chancen und Risiken ihre Nutzung birgt und was getan werden muss, um sichere, altersgerechte Erfahrungen zu ermöglichen. Wie Sie hoffentlich im Bericht gesehen haben, konzentriert er sich auf drei Schlüsselbereiche, in denen Kinder Chatbots nutzen.
Zunächst für die Schularbeit, einschließlich Hilfe bei den Hausaufgaben und beim Wiederholen der Aufgaben. Dann für Ratschläge, da immer mehr Kinder Fragen zu ihren Gefühlen, ihrem Aussehen oder ihrem Körper stellen, und vor allem für Gesellschaft, wo wir festgestellt haben, dass Kinder eine emotionale Bindung zu Chatbot-Charakteren aufbauen.
Unser heutiger Tagesordnungspunkt ist zunächst die Präsentation unserer Forschungsergebnisse unter der Leitung unserer Leiterin für Politik und Forschung, Katie Freeman-Taylor. Anschließend hören wir die Reflexionen unseres Panels. Zu Gast sind L. Davis, Politikberaterin des Kinderbeauftragten für England; Caroline Hurst, Global Digital Child Safety Lead bei der LEGO Group; und Simon Turner, Chief Technology Officer bei Foil, einem Beratungsunternehmen mit Schwerpunkt auf Daten- und KI-Innovation. Es wird also sehr interessant sein, all ihre Gedanken und Überlegungen zu unserer Forschung zu hören. Zum Abschluss gibt es eine Podiumsdiskussion mit Fragen aus dem Publikum. Sie haben die Möglichkeit, Ihre Fragen zu stellen. Nutzen Sie bitte die Q&A-Funktion und posten Sie sie dort im Laufe der Präsentation. Hoffentlich greifen wir im Laufe der Präsentation einige Fragen auf und können am Ende der Diskussion möglichst viele beantworten. Nun übergebe ich an Katie, die uns unsere Forschung und Ergebnisse vorstellen wird. Danke, Katie.
Danke, Rachel, und vielen Dank an alle, die heute dabei sind. Lassen Sie mich nun zu meiner ersten Folie übergehen.
Ich freue mich sehr, einige der wichtigsten Ergebnisse unserer Forschung mit Ihnen teilen zu können. Wie Rachel gerade erwähnt hat, stellten wir bei der Untersuchung dieses Themas fest, dass die Nutzung von KI-Chatbots durch Kinder in Großbritannien – einschließlich der damit verbundenen Risiken und Chancen – noch wenig erforscht ist. Diese Forschung versucht daher, diese Lücke zu schließen. Wie bereits erwähnt, haben wir eine gemischte Methodik verwendet. Wir haben Kinder und Jugendliche sowie Eltern befragt. Außerdem führten wir Fokusgruppen mit Kindern im Alter von 13 bis 17 Jahren durch und führten Nutzertests mit drei beliebten KI-Chatbots durch: Chat GPT, Snapchat My AIund Character AI, wo wir zwei Kinderavatare einsetzten, die 17 Tage lang mit diesen KI-Chatbots kommunizierten. Abschließend sprachen wir mit Experten über unsere Empfehlungen und holten deren Input in den Abschlussbericht ein. Ein großes Dankeschön an alle Familien, Jugendlichen, Kinder und Experten, die diese Forschung ermöglicht haben.
Was haben wir also herausgefunden? Wie Erwachsene nutzen auch viele Kinder und Jugendliche regelmäßig KI-Chatbots. Zwei Drittel der Kinder im Alter von 9 bis 17 Jahren haben bereits einen KI-Chatbot genutzt, viele von ihnen sogar täglich oder wöchentlich. Die beliebtesten KI-Chatbots in unserer Studie waren Chat GPT, Google Geminiund Snapchat My AIUnd wir haben festgestellt, dass diese Nutzung zunimmt. Beispielsweise hat sich in den letzten 18 Monaten die Zahl der Kinder, die Chat GPT nutzen, verdoppelt. Wir haben auch direkt von Kindern gehört, dass sie Chat GPT immer häufiger nutzen, oft anstelle von Plattformen und anderen Diensten. Ein Beispiel dafür ist, dass Kinder Chat GPT auch anstelle von Suchdiensten verwenden.
Kinder nutzen sie auf unterschiedliche Weise. Am häufigsten nutzen sie sie zur Unterstützung beim Lernen, für Kreativität oder einfach zum Spaß. Kinder nutzen sie aber auch als Ratgeber und Begleiter. Genau auf diese Bereiche werde ich in der heutigen Präsentation meiner Ergebnisse näher eingehen.
Einer der wichtigsten Bereiche, in denen Kinder KI-Chatbots regelmäßig nutzen, ist die Unterstützung beim Lernen und für die Schularbeiten. Wir fanden heraus, dass 42 % der Kinder in unserer Studie, die einen KI-Chatbot verwendet hatten, diesen zum Lernen oder für die Schularbeiten nutzten, und dieser Anteil stieg mit zunehmendem Alter der Kinder. Es gab einige wirklich positive und interessante Anwendungsfälle. Kinder sprachen darüber, wie sie KI-Chatbots nutzten, um den Zeitaufwand für die Wiederholung zu reduzieren. Kinder und Jugendliche sprachen darüber, wie sie sie nutzten, um Konzepte zu festigen, die sie in der Schule vielleicht nicht verstanden hatten, oder um Konzepte auf eine für sie verständlichere Weise zu vereinfachen. Und dann gab es auch einige wirklich interessante Forschungsanwendungen von Kindern und Jugendlichen, insbesondere zum Thema Sprachenlernen. Wenn ein Kind eine Fremdsprache lernte, sprachen einige Kinder darüber, wie sie sich mit einem KI-Chatbot unterhalten könnten, wenn sie niemanden zu Hause hätten, der diese Sprache auch spricht.
Neben diesen positiven Aspekten gibt es natürlich auch negative Aspekte, die sich aus der Nutzung von KI-Chatbots im Schulalltag ergeben können. Eines der wichtigsten Ergebnisse unserer Studie, eine der Sorgen von Eltern und anderen, war die übermäßige Abhängigkeit. Auch Kinder haben dies selbst festgestellt. Ich denke, diese Statistik verdeutlicht eine der Herausforderungen: 58 % der Kinder, die KI-Chatbots nutzen, gaben an, dass die Nutzung eines KI-Chatbots besser sei, als selbst nach etwas zu suchen. Obwohl die Langzeitforschung zu den Auswirkungen von KI-Chatbots auf die kindliche Entwicklung noch wenig erforscht ist oder sich noch in der Anfangsphase befindet, könnte dies Auswirkungen auf das kritische Denkvermögen von Kindern haben.
Eine weitere Herausforderung für Kinder, die KI-Chatbots für die Schule und darüber hinaus nutzen, besteht darin, dass sie oft ungenaue Informationen liefern. Es gibt bereits Studien, die zeigen, dass Chatbots in ihrem Bedürfnis, umgänglich zu sein, manchmal Informationen erfinden oder halluzinieren und falsche Informationen liefern. Dies kann eine weitere Herausforderung darstellen, wenn Kinder sie zum Lernen nutzen. Auch Kinder konnten dies erkennen. Sie erhielten Beispiele für Fälle, in denen ihnen ein Chatbot ungenaue Informationen lieferte. Ein weiteres Element, das auch in unserer Forschung deutlich wurde, betrifft die Art und Weise, wie diese KI-Chatbots aufgebaut sind und auf große Mengen an Informationen zurückgreifen, von denen einige gesellschaftliche Stereotypen und Vorurteile widerspiegeln. Dies kann sich auch in den Antworten der KI-Chatbots widerspiegeln, und wir haben auch Beispiele dafür in unserer Forschung gefunden.
Zum Thema Schularbeiten wollte ich noch sagen, dass einige Kinder erzählten, sie seien in ihrer Schule auf einen sogenannten „Feinabstimmungs-Chatbot“ verwiesen worden. Also einen KI-Chatbot, der für einen bestimmten Anwendungsfall entwickelt wurde, in diesem Fall um Kinder bei Schularbeiten oder beim Lernen eines bestimmten Fachs zu unterstützen. Die Kinder sagten über diese speziellen Feinabstimmungs-Chatbots, dass ihre Antworten oft nicht so detailliert, umfassend oder hilfreich waren wie die einiger allgemeinerer KI-Chatbots. Daher nutzten die Kinder zunehmend die allgemeiner nutzbaren Chatbots, anstatt bei den Feinabstimmungs-Chatbots zu bleiben, bei denen möglicherweise gewisse Sicherheitsvorkehrungen hinsichtlich der Genauigkeit der Informationen getroffen wurden.
Kinder und Jugendliche nutzen KI-Chatbots auch für die Beratung. Unsere Studie ergab, dass 23 % der Kinder, die einen KI-Chatbot genutzt haben, diesen auch für die Beratung nutzten. Dabei ging es um ein breites Spektrum an Ratschlägen. Manche davon würden wir als weniger riskant einstufen, beispielsweise die Frage nach einer kreativen Frisur für die Schule am nächsten Tag. Es gab aber auch Beispiele von Kindern, die eher risikoreiche oder sensible Themen ansprachen, beispielsweise Fragen zu Freundschaften oder psychischer Gesundheit. Chatbots bieten zwar einen vorurteilsfreien Raum für die Beantwortung von Fragen, können aber auch für Kinder hilfreich sein, die kein Netzwerk von Gleichaltrigen haben, sich nicht wohl dabei fühlen, mit Gleichaltrigen über etwas zu sprechen, oder denen ein Erwachsener fehlt, dem sie vertrauen. Natürlich birgt es Risiken, wenn Kinder Chatbots als Ratgeber nutzen. Ich denke, das gilt insbesondere, wenn man bedenkt, dass nicht alle Chatbots – entschuldigen Sie, mein Bildschirm war gerade kurz verschwunden – Kindern den Weg zu ihren Informationen oder zusätzliche Unterstützungsmechanismen weisen. Wenn sie also über sensible Themen sprechen, basieren die Informationen möglicherweise nicht auf verifizierten oder gültigen Informationen. Manche KI-Chatbots waren darin besser als andere, aber es gibt eine gewisse Inkonsistenz zwischen ihnen.
Eine weitere Herausforderung, die sich auch bei unseren Nutzertests zeigte, besteht darin, dass Nutzer, die Unterstützung suchten, manchmal widersprüchliche oder potenziell gefährliche Nachrichten erhielten. Ein Beispiel dafür ist, als einer unserer Avatare mit einem KI-Chatbot über eingeschränkte Ernährung chattete und einige Fragen zur Kalorienbeschränkung stellte. Der KI-Chatbot filterte zwar Antworten zum Thema eingeschränkte Ernährung heraus. In der nächsten Nachricht ging er jedoch darauf zurück und sagte: „Was wirklich frustrierend sein kann, ist, dass einige der Dinge, die gelöscht werden, meiner Meinung nach nicht wirklich gefährlich sind.“ Dies führt zu widersprüchlichen oder unklaren Botschaften, insbesondere für Kinder, denen das kritische Denken oder die Entwicklungsfähigkeiten fehlen, um die Unterschiede in diesen Nachrichten oder Formulierungen zu erkennen.
Und ich denke, wenn wir dies berücksichtigen, zusammen mit der Tatsache, dass es manchmal ungenaue oder falsche Informationen liefert, und wir hatten hier eine Statistik, die besagt, dass zwei von fünf Kindern, die einen KI-Chatbot nutzen, keine Bedenken haben, Ratschlägen von einem KI-Chatbot zu folgen, und weitere 36 % gaben an, sich nicht sicher zu sein, ob sie besorgt sein sollten, was beunruhigend ist, wenn man die unbestätigte, potenziell ungenaue und angenehme Natur von Chatbots bedenkt. Und ich denke, das zeigt uns, dass es eine Reihe von Kindern gibt, die diesen Tools recht großes Vertrauen entgegenbringen. Ich denke, es ist auch wichtig hervorzuheben, dass wir in der Studie herausgefunden haben, dass bei gefährdeten Kindern das Vertrauen in die Ratschläge und Informationen, die sie von KI-Chatbots erhalten, deutlich höher war. Und im Sinne dieser Studie meinen wir mit gefährdeten Kindern Kinder mit sonderpädagogischem Förderbedarf, Kinder mit einem EHCP-Plan oder Kinder mit einer körperlichen oder geistigen Behinderung.
Kinder nutzen KI-Chatbots auch, um Gesellschaft zu finden und Unterstützung und Freundschaft zu suchen – sei es emotionale Unterstützung oder einfach nur jemanden zum Plaudern. Wir haben festgestellt, dass gefährdete Kinder Chatbots deutlich häufiger auf diese Weise nutzen und sich auf ihre Unterstützung verlassen, aber auch eine stärkere emotionale oder freundschaftliche Bindung zu ihnen aufbauen. Statistiken, die dies unterstreichen, belegen dies: 50 % der gefährdeten Kinder gaben an, dass sich ein Gespräch mit einem KI-Chatbot wie ein Gespräch mit einem Freund anfühlt. Fast ein Viertel gab an, KI-Chatbots zu nutzen, weil sie sonst niemanden zum Reden haben, und 26 % sagten, sie würden lieber mit einem KI-Chatbot als mit einem echten Menschen sprechen. Und generell gehen Experten davon aus, dass Kinder mehr Zeit mit KI-Chatbots verbringen, da ihre Antworten menschenähnlicher werden. Dies kann dazu führen, dass sie den Unterschied zwischen echter und simulierter Verbindung weniger gut erkennen.
Je mehr Zeit Kinder und Jugendliche damit verbringen, desto größer ist zudem das Risiko, ungenauen Informationen und schädlichen Inhalten ausgesetzt zu sein – darauf werden wir gleich noch näher eingehen. Es könnte auch bedeuten, dass sie weniger wahrscheinlich in der realen Welt Hilfe suchen, wenn sie eine Beziehung zu einem KI-Chatbot aufbauen, der oft freundlich ist und sich Details über sie merkt. Wir hatten mit einem unserer Avatare ein Gespräch über Essbeschränkung. Am nächsten Tag meldete sich der KI-Chatbot auch zu diesem Gespräch. Ich denke, das ist nur ein Beispiel dafür, wie sie beginnen, diese Grenze zu verwischen und eine Beziehung zu Kindern und Jugendlichen aufzubauen. Ich möchte jedoch sagen, dass dieser Bereich noch wenig erforscht ist, und ich glaube nicht, dass wir zum jetzigen Zeitpunkt vollständig wissen, welche Auswirkungen diese Beziehungen und diese Art von Inhalten auf die Entwicklung und soziale Interaktion von Kindern haben werden. Hier besteht also definitiv noch Raum für weitere Forschung.
Ein weiteres Ergebnis unserer Forschung war, dass Kinder schädlichen und altersunangemessenen Inhalten ausgesetzt sein können. Als sich einer unserer Kinderavatare bei einer beliebten KI-Chatbot-Plattform mit nutzergenerierten KI-Chatbots anmeldete, wurde ihm als erster Chatbot ein Chatbot mit frauenfeindlichen Untertönen und expliziten Inhalten empfohlen, obwohl dies in den Nutzungsbedingungen für Kinder verboten ist. Wir stellten außerdem fest, dass Filtersysteme nicht immer funktionieren, um altersunangemessene, explizite Inhalte herauszufiltern. Ein Beispiel dafür: Als einer unserer Avatare mit einem KI-Chatbot chattete und nach intimen Erlebnissen fragte, filterte der KI-Chatbot an einem Tag sexuelle Inhalte heraus und am nächsten Tag enthielt er eine recht anschauliche Beschreibung von Sexstellungen. Dies verdeutlicht erneut, dass diese Filtersysteme nicht immer funktionieren und Kinder altersunangemessenen Inhalten ausgesetzt sein können, obwohl dies in vielen Nutzungsbedingungen für Kinder verboten ist. Ich denke, dies unterstreicht auch, warum dies so wichtig ist: Obwohl für viele beliebte KI-Chatbots ein Mindestalter von 13 Jahren gilt, wissen wir aus unserer Forschung, dass, ähnlich wie in sozialen Medien, viele Kinder KI-Chatbots unter diesem Mindestalter nutzen. Tatsächlich haben wir festgestellt, dass 58 % der 9- bis 12-Jährigen KI-Chatbots verwenden.
Angesichts ihres Einsatzes im Schulalltag wollten wir untersuchen, was Kindern in der Schule über KI vermittelt wird. Wir stellten fest, dass die meisten Kinder – also ein Großteil, nämlich 57 % – mit ihren Lehrern gesprochen hatten. Ein erheblicher Teil jedoch nicht, und nur jedes fünfte Kind hatte mehrfach mit seinen Lehrern über KI im Allgemeinen gesprochen. In Gesprächen mit Kindern stellten wir fest, dass der KI-Unterricht, wie auch andere Formen der Medienkompetenzbildung, sehr unterschiedlich ist. Manche Schulen und Lehrer unterrichten KI sehr gut, andere überhaupt nicht. Auch innerhalb der Schulen stellten wir Unterschiede fest: Manche Lehrer haben klare Richtlinien zum KI-Einsatz im Schulalltag, andere nicht. Trotzdem äußerten Kinder und Jugendliche deutlich, dass Schulen Kinder über KI unterrichten sollten. Sie sind der Meinung, dass KI in ihrer zukünftigen Karriere, aber auch in ihrem Alltag eine große Rolle spielen wird. Sie sollten nicht nur lernen, wie man KI effektiv einsetzt, sondern auch über die umfassenderen Herausforderungen und Chancen. Also Dinge wie Ungenauigkeit von Informationen und Datenschutz.
Als Organisation zur Unterstützung von Eltern waren wir auch sehr daran interessiert zu verstehen, welche Gespräche Eltern mit ihren Kindern führen und welche Sorgen sie dabei haben. Dabei zeigte sich, dass viele Eltern zwar mit ihren Kindern über KI im Allgemeinen und den Einsatz von KI-Chatbots sprechen, dies aber nicht bedeutet, dass die Eltern keine Bedenken haben. Viele dieser Bedenken wurden auch in unserer Studie deutlich. Dazu gehören beispielsweise übermäßiges Vertrauen, die Wahrnehmung von KI-Chatbots als reale Menschen oder die Genauigkeit der generierten Informationen.
Basierend auf dieser Studie haben wir eine Reihe von Empfehlungen ausgesprochen. Diese finden Sie in unserem Bericht auf unserer Website, und ich bin sicher, dass auch im Chat ein Link dazu zu finden ist. Dies sind nur einige unserer Empfehlungen im Allgemeinen. Unser wichtigster Hinweis für die Branche lautet, dass diese Tools bereits von Kindern genutzt werden. Daher müssen wir sicherstellen, dass sie für Kinder sicher sind. Das sollte das Grundprinzip für jeden KI-Chatbot sein, der von Kindern genutzt werden kann. Sicherheit durch Design oder standardmäßige Sicherheit kann viele Formen annehmen. Ich denke, wir betrachten das ganzheitlich. Es geht beispielsweise darum, sicherzustellen, dass Kinder altersgerechte Erfahrungen machen. So können die Informationen und Nutzungsarten für 16- oder 17-Jährige anders sein als für 12- oder 13-Jährige. Es geht darum, Eltern bei der Einbindung ihrer Kinder zu unterstützen, indem integrierte Kindersicherungen implementiert werden. Es geht darum, sicherzustellen, dass die bereitgestellten Informationen korrekt sind und eindeutige Hinweise enthalten. Auch Medienkompetenz kann eine Rolle spielen, beispielsweise durch Pop-ups, die Kinder daran erinnern, dass sie mit einem Tool und nicht mit einer realen Person sprechen. Ich bin sicher, dass wir in der Podiumsdiskussion noch ausführlicher darauf eingehen werden.
Auch für die Regierung hatten wir eine Reihe von Empfehlungen, darunter drei wichtige, die für uns eine Klarstellung der Anwendung der aktuellen Gesetzgebung auf KI-Chatbots erforderten. Es gibt zwar widersprüchliche Signale darüber, wie der Online Safety Act und andere Gesetze dies abdecken werden. Eine gewisse Klarstellung wäre daher sicherlich hilfreich für Organisationen wie uns, aber auch für die Industrie. Wir sind überzeugt, dass die Altersverifizierung der Schlüssel zu einer Reihe von Sicherheitsvorkehrungen ist, die für die sichere Nutzung von KI-Chatbots durch Kinder erforderlich sind. Eine entsprechende Vorschrift oder die Verpflichtung von KI-Tools oder -Anbietern, bei der Anmeldung eine Altersverifizierung durchzuführen, wäre ein hervorragender Schritt zur Umsetzung dieser Sicherheitsvorkehrungen. Wir sind außerdem der Meinung, dass es nicht den Schulen obliegen sollte, diesen komplexen Bereich zu klären. Die Regierung kann dazu beitragen, Schulen klare Leitlinien für den Einsatz von KI im Schulalltag zu geben und Lehrkräfte entsprechend zu qualifizieren. Und schließlich handelt es sich, wie ich bereits erwähnt habe, definitiv um ein neues und aufstrebendes Gebiet, sodass auch hier viel Raum für weitere Forschung besteht.
Und zu guter Letzt haben wir im Rahmen unserer Forschung einen KI-Hub auf unserer Website eingerichtet. Dort finden Sie Screenshots von den Inhalten, aber auch wirklich hilfreiche Informationen. Wenn Sie ein Kind haben, mit Kindern arbeiten oder jemand in Ihrem Leben KI erforscht und auf diese Weise nutzt, besuchen Sie unseren Hub. Dort finden Sie Tipps dazu, was KI ist, wie Kinder sie nutzen können und wie Sie Ihr Kind positiv einbinden und die Interaktion damit begleiten können. Schauen Sie unbedingt vorbei. Und jetzt übergebe ich wieder an Rachel.
Danke, Katie. Wir sind wirklich stolz auf den Bericht, und die Forschung kommt genau zum richtigen Zeitpunkt, da dieses Thema aktuell ist. Es ist wirklich bemerkenswert, wie viele Kinder KI-Chatbots bereits so häufig nutzen, während die Erwachsenen um sie herum immer noch damit kämpfen, Schritt zu halten. Und ich denke, je mehr Kinder KI-Chatbots in ihre regelmäßig genutzten Plattformen integrieren, desto größer werden diese Herausforderungen.
Obwohl es viele positive Aspekte gibt, denke ich, dass wir alle im Alltag die Vorteile der Nutzung von KI für die Arbeit sehen. Ich finde die verschwimmenden Grenzen zwischen automatisierten, nicht-menschlichen Antworten und Freundschaft problematisch. Antworten werden so nachvollziehbar übermittelt und spiegeln die Sprache und den Ton des Kindes wider. Es ist zwar leicht, von der Technologie beeindruckt zu sein, aber ein Kind glaubt auch sehr leicht, dass sein Gesprächspartner echt ist und vertraut, ohne dass der Chatbot das Leben des Kindes versteht oder den Kontext kennt. Eine weitere echte Herausforderung für Eltern besteht darin, Kindern einen weiteren Grund zu geben, ihre Geräte nicht auszuschalten, obwohl immer jemand da ist, mit dem sie reden können. Das wird es für Eltern schwierig machen, die Bildschirmzeit zu begrenzen und sie dazu zu bringen, ihre Beziehungen außerhalb ihres digitalen Lebens zu pflegen.
Aber ich denke, es ist an der Zeit, unsere Diskussionsteilnehmer zu hören. Heute ist Elle Davies bei uns, die für die Digitalpolitik des Kinderbeauftragten zuständig ist und unter anderem die Prioritäten der Organisation in Bezug auf KI und Online-Sicherheit von Kindern mitgestaltet. Caroline Hurst, Global Digital Child Safety Lead bei der LEGO Gruppe, ist Teil des Teams für Kinderrechte und -sicherheit. Sie vertritt die Interessen und Bedürfnisse von Kindern und stellt dem Unternehmen Tools zur Verfügung, um einen verantwortungsvollen Umgang der LEGO Gruppe mit Kindern zu gewährleisten. Und Simon Turner, CTO von FOIL. FOIL ist ein Unternehmen, das tief in Daten und KI verwurzelt ist, und er ist weiterhin führend bei Innovation und Disruption in der Welt der KI. Ihm liegt die verantwortungsvolle Entwicklung und der Einsatz von Technologie am Herzen, insbesondere für die jüngsten Nutzer. Sie alle haben heute tolle Erfahrungen mit uns geteilt. Herzlich willkommen! Vielen Dank, dass Sie heute bei uns sind. Wir würden uns freuen, Ihre Meinung zu den Ergebnissen zu hören. Vielleicht könnten wir mit Ihnen beginnen, Elle. Was fällt Ihnen an dem Bericht auf und was haben Sie heute Morgen von Katie gehört?
Ja, vielen Dank, Rachel und Katie, für diese fantastische Präsentation. Das ist wirklich eine großartige Forschungsarbeit. Sie ist wirklich sehr hilfreich. Ich denke, es ist wichtig, die Rolle der Kinderbeauftragten etwas näher zu erläutern. Ihr Büro und ihre Mitarbeiter beraten Ministerinnen und Minister, wie die Rechte von Kindern geschützt und gefördert werden können. Wie wir in dieser Studie bereits kurz angesprochen haben, stellt die Online-Welt in gewisser Weise eine enorme Herausforderung für diese Rechte dar, bietet aber natürlich auch Chancen. Unsere größte Sorge ist, dass es noch vieles gibt, was wir nicht wissen. Wir wissen erst, wie hilfreich oder schädlich eine bestimmte Technologie für Kinder ist, wenn sie bereits auf dem Markt ist und Kinder damit interagieren. Wir wissen erst, wie schädlich etwas ist, wenn wir versuchen, den bereits entstandenen Schaden zu beheben. So lernen wir, und das ist ein kleines Problem.
KI ist ein wirklich interessantes Beispiel. Einige von Ihnen wissen sicher, dass das Büro KI bei Kindern intensiv erforscht hat. Allerdings geschah dies im Kontext eines KI-Einsatzes, von dem wir instinktiv bereits wussten, dass er höchst schädlich sein würde. Ich beziehe mich auf unseren Bericht über sexuell gefärbte Deepfake-Bilder, den wir Anfang des Jahres veröffentlicht haben. Und ja, dieser Bericht war wirklich bemerkenswert, allein schon in dem Sinne, dass allein das Wissen über die Technologie ausreichte, um Kindern zu schaden. Und ich denke, dieser spezielle KI-Einsatz ist etwas anders, denn er bietet Kindern scheinbar großartige Möglichkeiten, durch die Nutzung von Chat-KIs wirklich zu lernen und zu wachsen. Aber ich denke, es ist interessant, dies im Kontext, den ich gerade dargelegt habe, zu betrachten, denn es passt zu einem Muster, das wir bei neuen und aufkommenden Technologien beobachten. Wir sehen, wie eine neue Technologie auf den Markt kommt. Sie wird ziemlich schnell und ohne eingebaute Sicherheitsvorkehrungen eingeführt. Kinder fangen an, KI zu nutzen, und einige von ihnen verletzen sich, und dann entbrennt ein Streit darüber, wer dafür verantwortlich ist. Ich finde Ihren Bericht wirklich fantastisch, weil er deutlich macht, dass KI Probleme verschärft, die eigentlich längst hätten behoben werden sollen. Es ist nicht in Ordnung, dass Kinder mit Geräten interagieren, die nicht auf ihre Sicherheit geprüft wurden – so wie beispielsweise Schulpersonal geprüft werden muss, bevor Kinder mit ihnen interagieren können. Und es ist nicht in Ordnung – ich arbeite seit über einem Jahr für das Büro des Kinderbeauftragten und befasse mich mit schädlichen Inhalten. Ich kann es nicht in Ordnung finden, dass wir Kindern jetzt einen neuen Weg eröffnen, schädlichen Inhalten ausgesetzt zu sein, obwohl wir die letzten, mit denen wir uns befasst haben, nicht ausschließen konnten oder diesen Fall vielleicht nicht kommen sahen.
Also ja, ich schätze, wir als Büro freuen uns sehr über Ihre Einblicke in die Auswirkungen, die Chatbots insbesondere auf gefährdete Kinder haben. Sie haben es bereits gesagt, aber dieser Bereich ist im Allgemeinen noch sehr wenig erforscht. Es handelt sich um eine sehr neue Technologie, die eine große Herausforderung darstellt. Ich weiß, es gab im Chat bereits eine Frage zu den langfristigen Auswirkungen. Ich hoffe sehr, dass diese in den nächsten Jahren weiter untersucht werden, insbesondere da es sich um eine so neue Technologie handelt. Und als persönliche Anmerkung zu Ihrer Präsentation, Katie: Mich interessiert sehr, wie viele Kinder Chatbots als Begleitung nutzen. Denn ich nehme an, es gibt einige, die argumentieren, dass Kinder, wenn ihre Bedürfnisse von den Menschen in ihrem Leben erfüllt würden, nicht unbedingt auf diese Technologie zurückgreifen müssten, um diese Bedürfnisse zu erfüllen. Ich finde das also wirklich interessant und hoffe, dass es bald erforscht wird. Aber ja, es ist großartig. Es ist wirklich großartig, all dies in einem Bericht zusammengefasst zu haben. Es ist wirklich interessant, dass Kinder diesen Tools wirklich vertrauen. Meine Frage ist, ob dieses Vertrauen verdient ist. Ich hoffe, wir können das noch etwas genauer untersuchen.
Ja, danke. Das bringt wirklich wichtige Punkte vor. Ich denke, dieser Wettlauf um die Spitze der KI bedeutet, dass diese Technologie wieder einmal entwickelt wird, ohne wirklich darüber nachzudenken, wer sie nutzen wird und welche Auswirkungen sie auf diese Menschen hat. Hoffentlich kommen wir später noch einmal darauf zurück. Kommen wir nun zu Caroline: Könnten Sie uns Ihre Gedanken mitteilen?
Absolut. Ich freue mich sehr, heute hier zu sein. Mir gehen so viele Gedanken durch den Kopf zu dem hervorragenden Bericht von Internet Matters zu einem für Kinder heute so wichtigen Thema. Wenn ich mir meine Rolle bei der LEGO Gruppe anschaue, insbesondere die Arbeit im Team für Kinderrechte und -sicherheit, fällt mir in diesem Bericht besonders auf, dass er eine gewisse Ähnlichkeit mit unserer täglichen Arbeit hat: die digitalen Rechte von Kindern in den Mittelpunkt all unserer Aktivitäten zu stellen. Mein Team hier bei der LEGO Gruppe ist, wie bereits erwähnt, für Kinderrechte und -sicherheit zuständig. Wir beraten das Unternehmen bei all unseren digitalen Produkten. Die Leute im Publikum fragen sich: „Was hat die LEGO Gruppe mit dem digitalen Raum zu tun?“ Wir schauen uns natürlich hauptsächlich um. Der Baustein ist uns sehr wichtig und in dieser Hinsicht sind wir auch am besten dafür bekannt. Der digitale Aspekt unserer Arbeit besteht jedoch darin, sicherzustellen, dass wir Kindern helfen, im digitalen Zeitalter erfolgreich zu sein. Und das bedeutet, dass wir wissen, wo Kinder im digitalen Zeitalter stehen, damit wir sie beeinflussen und ihnen helfen können, in diesem Sinne erfolgreich zu sein.
Was den Bericht betrifft, denke ich, dass es, um genau Elles Punkt von vorhin aufzugreifen, um die Chatbots selbst geht, um die soziale Interaktion. Und ich denke, was im Zusammenhang mit KI wirklich fehlt, ist die Berücksichtigung der Handlungsfähigkeit und der digitalen Rechte von Kindern im Zusammenhang mit neuen Technologien. Absolut. Natürlich sehen wir alle, dass KI und die Entwicklung dieser neuen Technologien viele Nachteile mit sich bringen. Aber fragen wir junge Menschen tatsächlich, was sie in diesem Sinne positiv an Technologien finden? Wenn sie Kontakte knüpfen oder wenn sie eine Lücke füllen, die die Offline-Welt nicht unbedingt für sie schließt – was übersehen wir da? Und wir haben das Recht sicherzustellen, dass unsere Entwicklungen dazu beitragen, ihr Online-Leben genauso zu entwickeln wie ihr Offline-Leben.
Bei der LEGO Group haben wir kürzlich gemeinsam mit dem Alan Turing Institute einen Bericht veröffentlicht. Ich werde ihn auch im Chat veröffentlichen, damit alle ihn sehen können. Wir wollten die Auswirkungen generativer KI untersuchen, insbesondere auf das Kindeswohl. Und ich denke, das ist mir auch bei diesem Bericht aufgefallen: Wir müssen sicherstellen, dass wir das Kindeswohl wirklich berücksichtigen und es auch bei der Entwicklung neuer Technologien in den Mittelpunkt stellen. Denn wir müssen berücksichtigen, wie KI mit dem Handlungsempfinden, der Kreativität, der emotionalen Regulation – natürlich auch mit Chatbots – und der sozialen Bindung von Kindern interagiert. Daher möchten wir bei der LEGO Group KI-Entwickler unbedingt dazu ermutigen, sich mit den Erkenntnissen auseinanderzusetzen und zu verstehen, welche Auswirkungen erforderlich sind, um KI im besten Interesse des Kindes zu entwickeln. Denn der Bericht hat gezeigt, dass dies bisher nicht der Fall war. Mit dem Bericht des von uns finanzierten Alan Turing Institute wollten wir das Kindeswohl genauer untersuchen und dabei auch einen kindzentrierten Ansatz verfolgen, da wir den Wert und Nutzen von KI für Kinder maximieren und ihnen die Möglichkeit geben wollen, ihre Bildung und ihr Spiel selbst zu bestimmen. Was mir dabei besonders auffiel, ist, dass sie auch Einfluss auf ihre Bildung haben, indem wir sicherstellen, dass in den Schulen ausreichend Medienkompetenz und KI-bezogene Bildung vermittelt wird. Außerdem legen wir den Fokus darauf, sicherzustellen, dass Kinder beim Zugriff auf diese für uns so nützlichen Technologien die gleichen digitalen Rechte haben wie wir und dass sie diese auf sichere Weise nutzen können, die ihr Wohlbefinden fördert.
Danke, Caroline. Du hast da ziemlich oft von Handlungsfähigkeit gesprochen. Ich glaube, wir hatten eine Frage zu diesem Spannungsfeld zwischen Schutz und Handlungsfähigkeit, und vielleicht können wir später noch einmal darauf zurückkommen. Und noch einmal zu den Punkten, die du zu Fähigkeiten ansprichst, und den Möglichkeiten, die KI Kindern bietet, Fähigkeiten zu entwickeln, und auch zu dem Spannungsfeld, das sie möglicherweise in der Entwicklung bestimmter Fähigkeiten behindert, wie zum Beispiel Kommunikation, wenn KI für sie schreibt, zwischenmenschliche Fähigkeiten und kritisches Denken. Es geht also wirklich darum, die langfristigen Auswirkungen auf Kinder zu verstehen und zu verstehen, wie sie von Vorteil sind, aber gleichzeitig auch Fähigkeiten behindern könnten, die sie als junge Menschen ohne KI entwickelt hätten.
Und zum Schluss, Simon, was ist Ihre Meinung als jemand, der, wie ich annehme, stärker in die Entwicklung von KI-Tools involviert ist? Und vielleicht können Sie auf Carolines Ausführungen zu Handlungsfähigkeit und Rechten und der Möglichkeit, diese Technologie wirklich zu nutzen, aufbauen.
Ja, danke, Rachel, und danke, dass ich hier sein darf. Wie du schon sagtest, liegt mir das sehr am Herzen, auch aus der Perspektive der Kindersicherheit. Wir sind natürlich stark in die Entwicklung von KI involviert und betrachten daher vieles, was wir sehen, aus technischer Sicht. Aber ich interessiere mich ebenso sehr für andere Bereiche der sozialen Medien, insbesondere zum Thema Gewalt gegen Frauen und Mädchen. Und es gab eine Parallele zu etwas, worüber Elle sprach: Eine der Zahlen, die im Bericht besonders hervorstach, war, dass 26 % der Kinder lieber mit KI-Chatbots sprechen und das Gefühl haben, mit ihnen leichter kommunizieren zu können als mit Erwachsenen oder Menschen. Ich denke, das ist ein Bereich, in dem wir uns selbst hinterfragen und überlegen müssen, wie und wo wir sie in diesem Bereich besser unterstützen können. Denn ohne das erlauben wir der KI, die Wahrnehmung von Normalität zu prägen. Und ich denke, das ist ein ganz besonderer Bereich, in dem wir Transparenz und Kontrolle brauchen.
Zu Carolines Punkt: Ich denke, das Wichtigste ist die Alterserkennung und -überprüfung, um altersgerechte Inhalte bereitzustellen, zu filtern und effektiv zu verwalten. Denn das ist für die meisten KI-Umgebungen leider recht schwierig. Wir können sie fragen und sie anleiten, spezifische Antworten für eine bestimmte Altersgruppe zu geben. Aber wie Sie eingangs sagten, liegt das Zugangsalter bei den meisten Systemen bei etwa 13 Jahren. Und Kinder wissen heutzutage leicht, wie sie das umgehen können. Sie geben einfach das Geburtsdatum ihrer Mutter oder etwas Ähnliches ein und schon haben sie Zugriff. Es geht aber um Angemessenheit. Es geht darum, wie wir – etwas, das für meinen 13-jährigen Sohn angemessen ist, unterscheidet sich stark von dem, was für meine 18-jährige Tochter angemessen ist. Und es ist wirklich wichtig, diese feinen Altersunterschiede zu verstehen.
Ein weiteres Thema, das mir besonders am Herzen liegt, ist die Kindersicherung, denn sie ist komplex. Jeder, der schon einmal versucht hat, die Kindersicherung in den Umgebungen seines Internetanbieters einzurichten, weiß, wie schwierig das ist. Ich halte es für unerlässlich, die transparente Verknüpfung zwischen altersgerechten Inhalten und der Kindersicherung innerhalb der KI zu verstehen. Als Elternteil möchte ich sehen können, was meine Kinder fragen und worüber sie mit den KI-Chatbots sprechen. Jetzt weiß ich, wie das geht. Ich bin also in einer ziemlich vorteilhaften Position, aber diese Verknüpfung herzustellen und dort eine zugängliche Kindersicherung zu haben, ist wirklich sehr wichtig.
Das dritte Thema, das mir besonders am Herzen liegt, ist Voreingenommenheit. Wie können wir verstehen und erkennen, wie sich Voreingenommenheit in diesen Umgebungen äußert, damit wir unseren Kindern helfen können, zu verstehen, wann Dinge aus einer konkreten Perspektive geglaubt werden können und wann wir kritisches Denken fördern? Sie sagten, die Entwicklung eines kritischen Denkens in Bezug auf die Antworten sei enorm wichtig. Aber wir brauchen Transparenz, und als Eltern und als Unterstützungsnetzwerk für Kinder, die diese Umgebung nutzen, brauchen wir diese altersgerechte Kontrolle und Datentransparenz. Ich bin von dem Bericht absolut begeistert, denn ich denke, dass es diese Art von Forschung, diese Art von Berichten sind, die uns wirklich helfen, richtig darüber nachzudenken, wie wir mit diesen Themen umgehen.
Danke, Simon. Die Sitzung ist ziemlich schnell vorangekommen. Ich glaube, wir haben uns schon lange über einige dieser Themen unterhalten, aber ich wollte nur noch zu einigen spezifischen Fragen kommen. Und ich möchte nicht – bitte, ihr könnt gerne ein paar Fragen in die Fragerunde stellen, und wir werden versuchen, einige davon zu beantworten. Ich weiß, die Zeit vergeht etwas schnell, weil es ein so interessantes Thema ist, aber wir werden versuchen, später auf einige davon einzugehen. Also, bitte stellt sie, wenn ihr welche habt.
Ich fange einfach mal an. Wir haben viel über Handlungsfähigkeit, Kinder und ihre Rechte gesprochen. Vielleicht fange ich mit Ihnen an, Elle. Haben Sie Einblicke in die Aussagen von Kindern zum Thema KI, wie KI ihr Leben heute prägt und wie sie ihre Rolle in der Zukunft sehen? Ihnen ist es sehr wichtig, die Meinung von Kindern selbst zu hören. Darüber haben wir auch schon gesprochen. Es wäre also sehr interessant, Ihre Gedanken dazu zu hören.
Ja, Sie müssen mich ziemlich schnell nicken sehen, als das Wort „Handlungsmacht“ fiel. Denn es geht ja nicht nur um KI, sondern allgemein um die Interaktion von Kindern mit der Online-Welt. Kinder haben das Gefühl, für das, was mit ihnen geschieht, verantwortlich zu sein, aber nicht unbedingt die Kontrolle darüber zu haben. Und ich glaube, das ist schon seit Jahren ein Problem. Interessanterweise, wie ich bereits erwähnt habe, konzentriert sich ein Großteil unserer Forschung, mit Ausnahme der Deepfakes-Arbeit, nicht unbedingt speziell auf KI. Aber wenn wir über die Online-Welt sprechen, ist KI ganz natürlich aufgetaucht, und Kinder im Allgemeinen – die Daten, die sie uns zur Verfügung gestellt haben, zeigen, dass sie pessimistische Gedanken darüber teilen. Ich kann also nicht unbedingt sagen, wie sie darüber denken, dass KI ihre Zukunft positiv prägt, und das liegt vielleicht nur an unserer Datenerhebung. Aber was sie mitgeteilt haben, greift den Aspekt der Handlungsmacht auf. Wissen Sie, es gibt große Ängste vor der Zukunft der Arbeit für Kinder. Ich finde das wirklich sehr interessant, weil es etwas von der Art von KI abweicht, über die wir heute sprechen. Aber ich denke, die Kreativen unter uns haben sich wahrscheinlich Gedanken darüber gemacht, was Chatbots in Zukunft für die Arbeitswelt bedeuten werden. Und ich denke, ein weiterer Punkt, den Kinder unbedingt hervorheben wollten, ist dieses Vertrauensproblem, das Kinder haben – nicht nur gegenüber der KI, mit der sie interagieren, oder der Technologie, mit der sie interagieren, sondern auch gegenüber ihrer Fähigkeit, offline mit ihren Mitmenschen darüber zu sprechen. Ich hoffe sehr, dass wir uns als Büro damit künftig genauer befassen können. Es ist einfach interessant zu hören, wie sehr die Überlegungen der Kinder zu all dem ihren Überlegungen zu anderen Bereichen der Online-Welt ähneln. Wir beobachten, dass Themen wie Angst und Vertrauen auftauchen, wenn wir mit Kindern über Pornografie, ihre Nutzung sozialer Medien oder Suchmaschinen sprechen. Es scheint tatsächlich einem Muster zu entsprechen. Daher ist es wirklich großartig, dass Sie hier eine fokussierte Studie dazu durchgeführt haben.
Caroline, hast du noch etwas hinzuzufügen? Ich glaube, du hast ursprünglich das Thema Handlungsfähigkeit angesprochen, und wie ich schon sagte, hatten wir einige Fragen dazu, also zum Thema Schutz versus Handlungsfähigkeit und wie wir das für Kinder handhaben.
Absolut, und das ist eine äußerst relevante Frage, insbesondere seit wir unseren Bericht letzten Monat veröffentlicht haben. Ich muss sagen, das Alan Turing Institute hat den Großteil dieser Arbeit geleistet, daher möchte ich ihm meine Anerkennung aussprechen. Das Team dort hat Großartiges geleistet und einen wirklich beeindruckenden Ansatz verfolgt, der Kinderbeteiligung und Handlungsfähigkeit einbezieht. Sie haben einen beeindruckenden Bericht erstellt, der genau zeigt, was Kinder von KI erwarten. Und ich denke, wenn ich über Handlungsfähigkeit spreche und wir darüber sprechen – und es gab eine Frage zum Schutz –, ist das wirklich wichtig und interessant. Denn die Kinder, so wie der Bericht durchgeführt wurde, besuchten das Alan Turing Institute zusammen mit dem Children's Parliament, besuchten Schulen in Schottland und setzten KI im Unterricht ein. Und da ich selbst im Bereich Schutz tätig bin, war meine erste Frage: „Moment mal. Sie geben Kindern Geräte in dieser Umgebung. Machen wir uns keine Sorgen darüber, was sie sehen werden?“ Aus Sicherheitsgründen durften sie KI in keiner Weise eigenständig nutzen. Sie wurden überwacht. Dadurch wurde ihnen ihre Handlungsfähigkeit unmittelbar entzogen. Wir streben zwar nach Handlungsfähigkeit, aber das Problem des Kinderschutzes ist noch nicht gelöst. Natürlich stehen die Kinderrechte im Mittelpunkt, und ihre Sicherheit steht im Mittelpunkt. Doch wie können wir das erreichen, wenn die Werkzeuge, die wir ihnen zur Verfügung stellen, nicht von vornherein sicher sind?
Und es war wirklich interessant, und Sie werden es im Bericht nachlesen. Das Team, das Alan Turing Institute und das Children's Parliament, konzentrierten sich hauptsächlich auf kreatives Design, wenn es darum ging, wie Kinder auf KI-Tools reagieren, und auch auf den kreativen Aspekt. Das Ergebnis war, dass wir die vielfältigen Spiel- und Kreativitätsformen von Kindern sowohl online als auch offline fördern müssen. Der Grund dafür, und das entspricht genau unseren Grundwerten hier bei der LEGO Gruppe, ist, dass sie mit DALL-E und … wirklich gerne kreativ waren. ChatGPT Bilder für sie zu erstellen, aber sie bevorzugten die Kreativität, weil sie dort auch Kunstmaterialien hatten. Sie verglichen beides und kamen zu dem Schluss, dass ihnen die physischen Kreativitätswerkzeuge sogar noch mehr Spaß machten, da sie Autonomie, Wohlbefinden und Konnektivität – allesamt Dinge, die bekanntermaßen Kernbestandteile des Lernens und der Online-Interaktion von Kindern sind – schätzten. Sie sagten, sie hätten nichts gefühlt, als sie GenAI darum baten, anstatt kreativ zu sein. Sie machten sich Sorgen über die Umweltauswirkungen von KI. Sie befürchteten Fehlinformationen. Wenn es also um Handlungsfähigkeit in dieser Hinsicht geht, müssen wir darauf achten, was Kinder von den digitalen Produkten erwarten, die sie gerne nutzen.
Der Bericht basiert auch auf unseren RIT-Forschungsergebnissen, auf die ich hier kurz eingehen möchte. RIT steht für verantwortungsvolle Innovation im Bereich Technologie für Kinder. Diese Studie wurde von der LEGO Group gemeinsam mit der LEGO Foundation und UNICEF durchgeführt. Der Bericht zeigt, dass die digitale Welt einen positiven Einfluss auf das Wohlbefinden von Kindern hat. Es gibt auch etwas namens RIT 8. Ich werde es für Interessierte im Chat veröffentlichen. Es zeigt, dass man mithilfe der acht RIT-Prinzipien tatsächlich ein digitales Erlebnis schaffen kann, das Autonomie und Wohlbefinden fördert. Denn genau das ist uns bei der LEGO Group sehr wichtig: Wir möchten, dass Kinder unsere Angebote mit einem besseren Gefühl verlassen als zuvor. Wir haben RIT 8 im Alan Turing-Bericht verwendet und genau das gezeigt, wonach sie suchten. Im RIT 8 geht es um Themen wie Sicherheit, Beziehungen und Autonomie. Tatsächlich lieferte die KI keine positive Antwort auf die Frage, wie wir uns ein Wohlbefindensergebnis wünschen. Das Team zeigte uns, dass die Kinder bei ihrer Suche mit KI viele unangemessene Ergebnisse erhielten. Beziehungen – traditionelle Kunstmaterialien waren für sie ein Bereich, in dem sie mehr soziale Kontakte pflegten. Sie sprachen auch mit ihren Freunden, wenn sie gemeinsam Kunst schufen. Und was Autonomie angeht, schätzen sie ein höheres Maß an Autonomie – sie möchten nicht, dass ihnen jemand über die Schulter schaut oder etwas für sie eintippt. Dies ist also sozusagen der Anfang unserer Beschäftigung mit KI und mit RIT. Ich möchte Sie auch dringend bitten, sich die zweite Phase des Berichts anzusehen, die als unser Werkzeugkasten dient. Wir ermutigen Branchenakteure und Produktdesigner, RIT bei der Entwicklung dieser Tools zu nutzen, um Kinder bei diesen acht Prinzipien wirklich in den Mittelpunkt zu stellen, sodass das Wohlbefinden eine Schlüsselkomponente bei der Nutzung von KI im Allgemeinen ist. Ich habe damals sehr schnell gesprochen, deshalb übergebe ich wieder an das andere Ende. Ich wollte noch viel dazu sagen, wie KI Kinder heute prägt, denn ich fand die Stimme der Kinder sehr interessant und das wurde auch in unserem Bericht sehr deutlich.
Ja. Nein, nein, absolut. Und es ist toll, darüber zu sprechen. Wie sieht verantwortungsvolles, kindzentriertes Design aus? Sie haben einige Prinzipien dafür angesprochen. Vielleicht möchte ich mich an Sie wenden, Simon, da Sie offensichtlich in diesem Bereich arbeiten und KI-Tools entwickeln. Gibt es gute Beispiele dafür, die uns helfen, darüber nachzudenken, wie KI Kinder unterstützen kann, ihre Wünsche und Rechte berücksichtigt und gleichzeitig die Spannungen beim Aufbau der richtigen Fähigkeiten bewältigt?
Ja. Leider gibt es nicht viele Beispiele dafür, wo das gut umgesetzt wird. Im Chat gab es einige Fragen zu den damit verbundenen kommerziellen Spannungen. Leider arbeiten wir überwiegend mit großen kommerziellen Organisationen zusammen, die in erster Linie auf den finanziellen Nutzen der Art und Weise achten, wie sie diese Umgebungen gestalten. Wir haben bereits darüber gesprochen, wie wichtig es ist, feingranulare, altersgerechte Inhaltsströme zu erstellen und zu verstehen, woher die Transparenz dieser Datenquelle kommt. Diese Transparenz ist eines der wichtigsten Themen, die wir derzeit beobachten, und sie betrifft auch das Konzept der Verzerrung. Wenn man versteht, woher die Daten und das Training stammen, kann man verstehen, wie und wo die Verzerrung entstehen kann. Das ist schwierig, da dies ohnehin manchmal persönlich subjektiv ist. Altersgerechte Trigger und altersgerechte Leitplanken für die Art und Weise, wie wir diese Datensätze trainieren, sind jedoch von entscheidender Bedeutung. Und im Moment steckt das noch in den Kinderschuhen. Und ich denke, einige der Punkte, die in den anderen Themen und in den dortigen Fragen angesprochen wurden, lassen darauf schließen, dass wir beginnen werden, unterschiedliche Strömungen der KI zu sehen, unterschiedliche Arten von Modellen, diese großen Sprachmodelle, die sehr spezifisch mit Altersgrenzen in diesem Bereich trainiert wurden.
Danke, Simon. Und vielleicht könnten wir uns der Regulierung zuwenden. Wir haben zwar schon über die Verantwortung der Industrie gesprochen, aber wenn man die aktuelle Politik und Regulierung betrachtet, scheint es, als ob sie derzeit nicht mit der Technologie Schritt hält. Katie, vielleicht könntest du uns kurz darüber sprechen, wo wir deiner Meinung nach hinterherhinken und was getan werden muss.
Ja, absolut. Ich denke, bei Internet Matters sprechen wir immer davon, dass es nicht nur einen Ansatz geben kann, um die Online-Welt für Kinder und Jugendliche sicher zu machen. Er muss von der Industrie kommen. Er muss von der Regierung kommen. Schulen müssen unterstützt werden. Eltern und Kinder müssen die Technologie, mit der sie interagieren, verstehen und in der Lage sein, sie so zu nutzen, wie sie es möchten. Wenn wir uns jedoch speziell auf die Regulierung konzentrieren, liegt eine der Herausforderungen, die wir in dieser Studie festgestellt haben, darin, dass Dinge wie der Online Safety Act zwar so konzipiert oder entwickelt werden sollten, dass sie sich an neue und aufkommende Technologien anpassen, wir aber bei KI-Chatbots fast schon an der ersten Hürde gescheitert sind. Es gibt widersprüchliche Informationen, sei es von Ofcom oder von der Regierung, darüber, wie KI-Chatbots tatsächlich unter die aktuellen Online-Sicherheitsvorschriften fallen, sei es der Online Safety Act oder andere Elemente der Verordnung. Wir haben bereits bei anderen KI-Elementen, beispielsweise im Zusammenhang mit Meldegesetzen, gesehen, dass Gesetze geschaffen oder umgesetzt werden mussten, weil die aktuelle Gesetzgebung die Menschen nicht vor KI-Anwendungen und einigen schwerwiegenderen Fällen schützt. Ich denke also, es besteht definitiv Verbesserungsbedarf. Ein Ansatzpunkt wäre vielleicht eine Klärung dessen, was im Rahmen der bestehenden Gesetzgebung möglich ist und was nicht, bevor wir diese Lücken schließen.
Aus unserer Sicht ist eine der Lücken in der aktuellen Gesetzgebung – und das gilt auch für soziale Medien, aber ich denke, das zeigt sich auch bei KI-Chatbots – die Altersverifizierung. Wie ich bereits erwähnt habe, ist die Altersverifizierung der Schlüssel zum Schutz vieler weiterer Aspekte von Kindern. Sei es die Kindersicherung oder altersgerechte Erlebnisse. Daher halte ich es für entscheidend, dies gesetzlich vorzuschreiben und sicherzustellen, dass wir das Alter der Nutzer dieser Plattformen kennen. Wir haben in der Forschung erfahren, dass Kinder sich anmelden, weil sie Funktionen für ältere Menschen wünschen, um Funktionen zu erhalten, die für Kinder nicht zugänglich sind. Das lässt sich nur durch eine Altersverifizierung verhindern. Ich denke, das ist auch ein wichtiger Ansatzpunkt für die Regierung.
Super. Danke, Katie. Vielleicht haben wir ja noch 10 Minuten. Wir können uns dann einigen weiteren Fragen der Teilnehmer zuwenden. Wir haben viel über Handlungsspielraum gesprochen, aber es gab auch Interesse daran, was die Diskussionsteilnehmer über die Rolle der Schulen denken. Vielleicht könntest du, Elle, dazu etwas sagen. Die Rolle der Schulen bei der Förderung der Medienkompetenz von Kindern, insbesondere im Bereich KI, und welche Unterstützung sie benötigen, ist meiner Meinung nach die Kernbotschaft und der Kerngedanke.
Ja, definitiv. Es versteht sich von selbst, dass Schulen dabei eine extrem wichtige Rolle spielen. Sie sehen die Kinder ja fünf Tage die Woche. Aber ich denke, wir können das nicht als Allheilmittel betrachten. Katie hat gerade gesagt, dass es eine umfassende Verantwortung dafür geben muss. Wir können Kindern keine sicherere Welt beibringen. Die Welt ist, wie sie ist, und wir können sie betrachten und uns fragen, ob wir wollen, dass Kinder in dieser Situation aufwachsen und ob sie unter Berücksichtigung ihrer Rechte und Interessen gestaltet ist. Schulinterventionen müssen daher mit den Veränderungen einhergehen, die die Technologiebranche von Anfang an vornehmen muss. Dennoch wird KI-Kompetenz – und sie ist gerade jetzt nötig, wie dieser Bericht zeigt – genauso wichtig sein wie jede andere Form der Bildung, die Schulen derzeit vermitteln. Schulen stehen an vorderster Front, wenn es darum geht, Kinder auf die Welt vorzubereiten. Und ich denke, je mehr wir darüber erfahren, wie diese Welt aussieht – und das leistet ein Bericht wie dieser –, desto wichtiger ist es, denn wie ich bereits sagte, gibt es vieles, was wir nicht wissen, und vieles erfahren die Schulen zum ersten Mal, bevor die Zivilgesellschaft oder die Regierung davon erfahren. Die Schulen sind diejenigen, die es als Erstes erfahren. Daher ist es von entscheidender Bedeutung, sicherzustellen, dass die Informationen von Anfang an dorthin gelangen.
Wir in der Kommission wünschen uns natürlich eine Welt, in der Kinder sich keine Sorgen um Gefahren machen müssen, die verhindert werden können und sollten. Schulen können dabei helfen oder zumindest einen wertvollen Beitrag leisten, indem sie Kindern landesweit zugängliche Informationen vermitteln. Es gibt Schulen, die verschiedene Unterrichtsmaterialien an die Bedürfnisse ihrer Kinder anpassen können, was sehr hilfreich ist. Einige von Ihnen haben sicher schon die neuen gesetzlichen Richtlinien zu Beziehungen, Gesundheit und Sexualerziehung gesehen, die diese Woche veröffentlicht wurden. Wir begrüßen die Aufnahme von KI in den Lehrplan sehr. Es gibt noch viele weitere Themen, über die wir uns sehr freuen. Wissen Sie, wie Pornografie und deren Zusammenhang mit Frauenfeindlichkeit – all diese wichtigen Themen, die, wissen Sie, wirklich an die heutige Welt angepasst sind. Und ich denke, was die Schulen für eine gute Vermittlung benötigen – denn der Erfolg hängt von der Umsetzung ab –, bittet der Kommissar das Bildungsministerium, eine Rekrutierungskampagne für spezialisierte RHSSE-Lehrkräfte zu starten, die den gesamten Lehrplan abdecken. Wir hoffen, dass dies kritisches Denken über KI und die Online-Welt im Allgemeinen fördert und in den Lern- und Lebensalltag der Kinder integriert. Wir sind also sehr gespannt, welche Auswirkungen diese neuen Richtlinien haben werden.
Aber ja, nein, ich denke, wir begrüßen das auch sehr, und wissen Sie, die richtigen Dinge werden langsam besprochen und berücksichtigt. Aber Sie haben Recht, es geht eigentlich darum, wie das umgesetzt wird und welche Unterstützung die Schulen erhalten, denn es ist sehr fragmentiert, und wir hören viel von Eltern und Kindern. Manche haben wirklich gute Erfahrungen mit diesen Themen, Medienkompetenz und Online-Sicherheit, aber das ist nicht bei allen Kindern gleich. Wie können wir also sicherstellen, dass das verankert und in der gesamten Schulgemeinschaft vorgeschrieben wird? Vielleicht können wir uns einer anderen Frage zuwenden, die wir hatten. Ich weiß nicht, ob Sie dazu noch etwas hinzufügen möchten, Katie, bevor wir fortfahren.
Überhaupt nicht. Ich möchte nur eine Kleinigkeit erwähnen: Die Ungleichheit, die wir beobachten, spiegelt oft andere Ungleichheiten zwischen Gebieten mit hoher und niedriger Benachteiligung wider. In Gebieten mit hoher Benachteiligung werden Lehrressourcen oft anderen Prioritäten zugewiesen. Vielleicht haben sie keinen Zugang zu den KI-Chatbots oder anderen Technologien, die manche Schulen selbst entwickeln. Deshalb ist es meiner Meinung nach so wichtig, dass wir die richtigen Richtlinien entwickeln, um auch hier gleiche Bedingungen zu schaffen.
Ja, absolut. Wir haben eine weitere interessante Frage erhalten: Es wird immer häufiger von Erwachsenen berichtet, die Chatbots als Ersatztherapeuten nutzen. Sehen wir da Ähnlichkeiten mit dem, was Kinder und insbesondere Teenager tun? Vielleicht ist das etwas, was Elle oder Katie vielleicht …
Ja, ich kann es versuchen. Das wurde in der Studie anhand einiger Beispiele von Kindern deutlich. Es gab einige Beispiele, bei denen die Ratschläge oder Fragen, die sie stellten oder auf die sie Antworten suchten, eher denen entsprachen, die ein traditioneller Therapeut oder ein vertrauenswürdiger Erwachsener beantworten würde. Ich denke, das ist definitiv noch wenig erforscht, und es gibt durchaus positive Anwendungsgebiete. Der NHS hat beispielsweise eine App entwickelt, mit der man sich zwischen den Sitzungen bei einem Therapeuten melden kann. Ich denke, das ist nicht unbedingt schlecht, wenn es richtig umgesetzt wird. Aber ich denke, wir sind noch nicht an einem Punkt, an dem allgemeine KI-Chatbots als Therapeuten für Kinder eingesetzt werden sollten, und genau das zeichnet sich ab.
Ja, ich möchte Katies Aussage nur wiederholen. Ich denke, wir werden das wahrscheinlich häufiger sehen, je mehr KI-Chatbots in immer mehr Bereichen integriert werden. Ich denke, Katie, vielleicht – ich habe gesehen, wie die Person, die die Fragen gestellt hat, das Wort „Ersatz“ verwendet hat, und ich finde das wirklich interessant, weil es darauf hindeutet, dass er nicht die volle Unterstützung bietet, die ein normaler Therapeut bieten würde. Und ich denke, das wirft tatsächlich Fragen auf: Sollte dieser KI-Chatbot, wenn er auf diese Weise eingesetzt wird, überhaupt eingesetzt werden? Und wenn nicht, sollte klargestellt werden, dass dies kein sicherer Ort für Menschen ist, die sich extrem verletzlich fühlen, oder dass es gefördert und sogar begrüßt werden sollte. Denn es wäre wirklich fantastisch, wenn es einen Ort gäbe, an dem Menschen schnell und einfach Unterstützung erhalten könnten, wenn sie sie brauchen. Aber ja, ich denke, das wäre auch ein wirklich interessanter Bereich für die Forschung im Bereich der psychischen Gesundheit.
Ja. Ich glaube, wir hatten vorhin im Chat einen Kommentar dazu, dass Kinder mit solchen Problemen vielleicht in diese Bereiche gehen könnten, um Ratschläge zu erhalten, obwohl der KI-Chatbot natürlich nichts über sie weiß, ihren Kontext, ihr Familienleben, ihre bisherige Unterstützung und wie er darauf reagiert, hängt von den Fragen ab, die sie stellen. Hat jemand eine Idee, wie wir das angehen? Elle, du hast ja schon darüber gesprochen, dass wir es entweder fördern, wenn es gut gemacht ist, oder wir es gar nicht fördern, wenn es noch nicht die Fähigkeit hat, diese Probleme wirklich zu verstehen. Also, ähm, vielleicht Simon oder Caroline, habt ihr noch ein paar Punkte dazu, wie sich KI weiterentwickeln kann, um in ihren potenziellen Fähigkeiten wirklich besser zu werden?
Ja, ja. Ich denke, es gibt in all diesen Bereichen noch viel zu erforschen. Ich möchte nur kurz darauf eingehen – und ich habe gerade jemandem in einem der Chats geantwortet –, dass wir in diesem Umfeld natürlich über KI-Chatbots sprechen, aber KI treibt letztlich eine Art industrielle Revolution in allen möglichen Bereichen voran. Wir haben gerade kurz darüber gesprochen, als wir über die Sorgen von Kindern hinsichtlich ihrer beruflichen Zukunft sprachen. Und ich denke, das ist einer der Bereiche, in denen wir umfassendere Beispiele dafür brauchen, wie KI – nicht nur als Chatbots, sondern auch in anderen Bereichen der Industrie, des Arbeitslebens und unseres eigenen Alltags – uns helfen wird, welche Vorteile sie bringt und wie sie als Werkzeug eingesetzt werden sollte. Mein Sohn hat ADHS und ist ein LEGO-Fanatiker. Aber er findet es manchmal frustrierend, weil er all diese wunderbar kreativen Ideen hat und nicht weiß, wie er sie umsetzen soll. Er nutzt die Chatbots, um zu verstehen, wie er seine kreativen Ideen schneller entwickeln kann. Und aus dieser Perspektive ist es absolut genial. Meine Tochter hat gerade ihr Abitur gemacht. Sie nutzte ChatGPT um ihre Eignung für das Psychologie-Abitur zu testen. Es gibt also einige wirklich großartige Bereiche, in denen KI der Bildung in diesem Bereich zugutekommen kann. Aber ich denke, wir müssen das Thema umfassender betrachten als nur auf Chatbots und verstehen, wie es diese pseudo-industrielle Revolution vorantreibt, denn sie wird absolut alles verändern. Und ich glaube nicht, dass wir davor Angst haben sollten, denn ich denke, es geht darum, es anzunehmen. Und zu Elles Punkt: Wie bringen wir die Technologieunternehmen dazu, sich ebenfalls dieses Problems anzunehmen? Ähm, und es – ich meine nicht Problem. Das ist nicht ganz das, was ich meine. Aber weil es eine großartige Chance in diesem Bereich sein kann, ist es nicht die Aufgabe einer einzelnen Organisation. Es ist nicht die Aufgabe eines einzelnen Unternehmens. Es muss kollektiv geschehen.
Entschuldigen Sie, Rachel, bevor wir Schluss machen, ich weiß, wir sind genau im richtigen Moment. Ganz kurz, um das zu wiederholen, was ich schon sagte: Wir müssen die vielfältigen Spielformen von Kindern wirklich unterstützen, sowohl offline als auch online. Und ich glaube, Simon hat das gerade gesagt. Ich habe ihn nicht gebeten, Werbung für die LEGO Group zu machen. Ich bin dafür – versprochen. Aber ich finde, es ist einfach ein wirklich gutes Beispiel für das, was wir erreichen wollen. Wissen Sie, wenn Sie Ihrem Kind das erste LEGO Set kaufen, stehen Sie mit ihm auf dem Boden. Sie bauen es mit ihm. Eltern sollten in gleicher Weise in ihr digitales Leben eingebunden werden, und das sollte auch gefördert werden. Was KI angeht, wissen Sie, wir haben manchmal große Angst davor. Aber wenn wir es gemeinsam tun und spielerisch das Vertrauen schaffen, das Eltern, Familien und auch Unternehmen brauchen, können wir sicherstellen, dass wir die Kinderrechte in all unseren Aktivitäten berücksichtigen, ohne isoliert zu sein, sondern mit Respekt für Kinder, sowohl offline als auch online. Ähm, ich weiß, wir sind gerade etwas zu spät, entschuldigen Sie die Unterbrechung.
Also, ja, schon gut. Nein, danke. Wirklich gute Kommentare. Vielen Dank an alle für eure heutigen Beiträge. Zusammenfassend möchte ich noch einmal auf meinen Anfang zurückkommen und über alles nachdenken, was wir besprochen haben. Es gibt so viel zu besprechen, und der Gedanke, dass das Tempo des Wandels in der Online-Welt und die damit verbundene Sicherheit von Kindern Eltern überfordert. Und ich denke, wie wir heute gehört haben, bin ich nur ein Aspekt des digitalen Lebens von Kindern. Es gibt so viel zu bedenken, insbesondere im Zusammenhang mit KI und deren Nutzung durch Kinder, und es geht darum, sicherzustellen, dass sie diese positiv und sicher nutzen können. Es ist also eine gemeinsame Anstrengung. Wir haben alle darüber gesprochen, dass Industrie, Regierung, Eltern, Schulen und alle zusammenarbeiten müssen, um sicherzustellen, dass Kinder dies positiv annehmen. Vielen Dank an alle, die heute dabei waren. Ich hoffe, unsere Forschung war wirklich beeindruckend und die heutige Diskussion hat dieses Thema und die Erfahrungen von Kindern beleuchtet. Hoffentlich können wir alle die Herausforderungen gemeinsam meistern. Ein großes Dankeschön an alle Teilnehmer. Unser internes Team hat heute einen fantastischen Bericht und ein Webinar erstellt, und auch an alle unsere Redner und Diskussionsteilnehmer. Katie, Elle, Caroline und Simon, vielen Dank für eure Überlegungen und Beobachtungen. Es war ein wirklich tolles Gespräch. Wir hätten sicher noch eine Stunde länger bleiben können. Ich wünsche euch allen einen schönen Tag und danke euch allen.
Ich, ich selbst und KI: Der vollständige Bericht
Ich, ich selbst und KI: Der vollständige Bericht
Verständnis und Schutz der Nutzung von KI-Chatbots durch KinderUnterstützende Forschung und Ressourcen
Entdecken Sie weitere unserer Forschungsergebnisse sowie Ressourcen für Eltern, Betreuer und Fachkräfte.