MENÜ

Was ist generative KI (Gen-KI) und wie kann sie sich auf das Wohlbefinden von Kindern auswirken?

Sehen Sie sich den vollständigen #Take20Talk darüber an, wie künstliche Intelligenz das Wohlbefinden von Kindern beeinflussen könnte.

Diesen Monat haben wir am #Take20Talk der Anti-Bullying Alliance teilgenommen.

Erfahren Sie mehr über die Nutzung generativer KI durch Kinder und ihre Auswirkungen im Vorfeld unserer bevorstehenden Forschung zu generativer KI und Bildung.

Wir haben uns sehr gefreut, an einem #Take20Talk mit der Anti-Bullying Alliance teilzunehmen. Der Vortrag gab uns die Gelegenheit, die Auswirkungen generativer KI auf das digitale Wohlbefinden von Kindern zu diskutieren.

In der Sitzung diskutierten wir die Nutzung generativer KI durch Kinder, die damit verbundenen Vorteile und Risiken sowie die aktuelle politische Landschaft rund um diese sich entwickelnde Technologie. Diese Präsentation erfolgt im Vorfeld unserer bevorstehenden Forschung zu generativer KI und Bildung, die Anfang nächsten Jahres veröffentlicht wird.

Was ist generative KI?

Generative KI (Gen-AI) ist eine Form der künstlichen Intelligenz, die Originaltexte, Bilder und Audio erzeugt. Gen-AI-Modelle werden anhand von Datensätzen trainiert, die zur Erstellung neuer Inhalte verwendet werden, und stützen sich dabei auf Muster, die während des Trainingsprozesses gelernt wurden.

Gen-AI verwendet Natürliche Sprachverarbeitung (NLP). Dies ist ein Zweig der KI, der „sich darauf konzentriert, Computern dabei zu helfen, menschliche Sprache zu verstehen, zu interpretieren und zu erzeugen.“ Diese Technologien bieten viele spannende Möglichkeiten für Kinder. Doch wie bei allen neuen Technologien gibt es neben den Vorteilen auch potenzielle Risiken, die man kennen sollte.

Welche Chancen bietet Gen-KI?

Maßgeschneiderte Lernerlebnisse

Generative KI kann Lehrern dabei helfen, ihre Unterrichtspläne und Materialien anzupassen, um die unterschiedlichen Lernbedürfnisse ihrer Schüler besser zu unterstützen. Dies gewährleistet somit ein ansprechenderes und integrativeres Lernerlebnis für vielfältige Klassenzimmer.

Tatsächlich nutzen Lehrer bereits generative KI-Tools, um Schülern mit sonderpädagogischem Förderbedarf und Behinderungen maßgeschneiderte Unterstützung zu bieten (SEND).

Unterstützung durch Helplines

Kinder können von Helplines profitieren, die generative KI nutzen. Hotlines zur Unterstützung der sozialen und psychischen Gesundheit, die auf generativer KI basieren, können jungen Menschen eine äußerst reaktionsfähige und personalisierte Unterstützung bieten. Dies kann zu sofortiger Hilfe führen und die Gesamtwirksamkeit der menschlichen Unterstützung verbessern.

Zum Beispiel, Kinderhilfe-Telefon ist ein Online-Dienst für psychische Gesundheit, der generative KI-Technologie nutzt, um Kindern in ganz Kanada rund um die Uhr Unterstützung zu bieten. Mithilfe von NLP analysiert und passt dieser Dienst den Kommunikationsstil junger Menschen an. Dies wiederum leitet Kinder zu dem spezifischen Servicekanal, den sie benötigen, sei es zur Unterstützung bei emotionalem Stress, Mobbingproblemen oder anderen Anliegen.

Helplines bieten jungen Menschen einen sicheren und anonymen Raum, in dem sie ihre Gefühle und Sorgen ohne Angst vor einem Urteil äußern können. Doch obwohl Helpline-Chatbots schnelle Antworten liefern können, mangelt es ihnen an Nuancen und Anpassungsfähigkeit, die der menschliche Support bietet. Sie werden daher Schwierigkeiten haben, die Wirksamkeit menschlicher Interaktion vollständig zu ersetzen.

Chatbots zur emotionalen Unterstützung

KI-Chatbots können nicht nur junge Menschen am Telefon unterstützen und anleiten, sondern auch als virtuelle Begleiter dienen. In manchen Fällen können sie Kindern emotionale Unterstützung bieten, denen es schwerfällt, Freundschaften zu schließen oder soziale Herausforderungen zu bewältigen. Darüber hinaus können diese Chatbots Kinder unterstützen, die sich einsam fühlen oder Schwierigkeiten haben, ihre Gefühle mit anderen zu teilen.

Mit den richtigen Sicherheitsvorkehrungen können Chatbots auch Kinder unterstützen, die mit sozialen Ängsten zu kämpfen haben. Diese Tools können einen vorurteilsfreien Raum bieten, um Gespräche zu führen und soziale Interaktionen zu entwickeln und zu üben.

Ein Beispiel für diese Art von Chatbot ist Harlie. Harlie ist eine Smartphone-App, die KI-Technologie und NLP-Algorithmen nutzt, um mit Menschen zu sprechen. Anstatt jedoch nur auf Fragen zu antworten, fördert Harlie den Dialog, indem er dem Benutzer Fragen stellt. Darüber hinaus kann Harlie mit der Erlaubnis des Benutzers Informationen über Sprachmuster erfassen, um sie an Gesundheits- und Forschungsteams weiterzugeben und gezielte Therapien anzubieten.

Was sind die potenziellen Risiken?

Auswirkungen auf das kritische Denken

Eine übermäßige Abhängigkeit von generativer KI könnte sich negativ auf die kritischen Denkfähigkeiten von Kindern auswirken. Dies liegt daran, dass dadurch die Möglichkeiten zur unabhängigen Analyse und Problemlösung verringert werden. Darüber hinaus könnte der Einsatz von KI als Hauptwissensquelle die Fähigkeit beeinträchtigen, Informationen zu hinterfragen und zu bewerten. Sehen Sie sich unseren Leitfaden zum kritischen Online-Denken an.

Es ist wichtig, Helfen Sie Kindern, KI-Tools zu integrieren in ihr Lernen einbeziehen, ohne sich zu sehr auf sie zu verlassen.

Parasoziale Beziehungen und Mobbing

Es gibt einen besorgniserregenden Trend, bei dem junge Benutzer Mobbing-Verhaltensweisen kopieren und sie an einen KI-Chatbot weiterleiten. In den sozialen Medien ermutigen einige Benutzer andere, Chatbots durch Gaslighting und allgemeine Misshandlungen zu „schikanieren“.

Obwohl Kinder andere Menschen nicht schikanieren, besteht die Sorge, dass virtuelle Interaktionen Mobbingverhalten normalisieren könnten.

Exposition gegenüber expliziten Inhalten

Durch die Verwendung bestimmter KI-Chatbots könnten Kinder dieser Gefahr ausgesetzt sein explizite und unangemessene Inhalte. Ein Beispiel für einen solchen Chatbot ist Replika. Replika ist ein benutzerdefinierter KI-Chatbot, der Benutzer dazu ermutigt, persönliche Informationen weiterzugeben. Je mehr Informationen ein Benutzer mit ihm teilt, desto individueller kann er seine Antworten gestalten.

Obwohl die Website angeblich nur für über 18-Jährige geeignet ist, ist keine Altersüberprüfung erforderlich. Daher werden Kinder bei der Nutzung der Website kaum auf Hindernisse stoßen.

Replika ermutigt Benutzer, sich an expliziten Erwachsenengesprächen zu beteiligen. Darüber hinaus werden sie aufgefordert, eine Gebühr für den Chatbot zu zahlen, um anstößige Bilder zu teilen oder einen „romantischen“ Videoanruf zu ermöglichen. Die Normalisierung des Bezahlens für explizite Inhalte könnte eine Kultur fördern, in der Kinder es für akzeptabel halten, unangemessene Bilder anzufordern, zu empfangen und zu senden – sowohl mit dem Chatbot als auch untereinander.

Illegale Inhaltsgenerierung

Berichten zufolge nutzen Kinder zunehmend KI-Tools, um anstößige Bilder von Gleichaltrigen zu erzeugen, was durch leicht zugängliche „Entkleidungs“-Apps erleichtert wird. Anstößige Bilder von unter 18-Jährigen sind unabhängig von den Umständen ihrer Entstehung illegal. Das beinhaltet Material über sexuellen Missbrauch von Kindern (CSAM) Hergestellt mit Deepfake-Technologie.

Während sich die Dynamik der Deepfake-Produktion und -Verbreitung von anderen Formen des bildbasierten sexuellen Missbrauchs unterscheidet, ist der Schaden für die Opfer wahrscheinlich genauso schwerwiegend, wenn nicht sogar noch schwerwiegender.

Was Teenager über Deepfake-Technologie sagen

Um die Auswirkungen der Deepfake-Technologie genauer zu untersuchen, haben wir Anfang des Jahres eine Reihe von Fokusgruppen abgehalten. Die Fokusgruppen umfassten Jugendliche im Alter von 15 bis 17 Jahren und behandelten das Thema Online-Frauenfeindlichkeit. Dazu gehörte auch die zugrunde liegende Geschlechterdynamik sexuelle Belästigung und Missbrauch von Kindern gegenüber.

Die Teilnehmer diskutierten über sexuellen Missbrauch im Zusammenhang mit Deepfake-Technologie – ein Thema, das dieses Jahr sowohl in Großbritannien als auch international mehrfach für Schlagzeilen gesorgt hat. Jugendliche – insbesondere weibliche Teilnehmer – teilten im Allgemeinen die Ansicht, dass es tatsächlich schädlicher sein könnte, Opfer von Deepfake-Missbrauch zu werden als herkömmliche Formen des nicht einvernehmlichen Teilens von Bildern.

Die Teilnehmer sagten uns, dass die Intensität des Schadens in dem Mangel an Entscheidungsfreiheit und Kontrolle liege, den sie bei einem Deepfake verspüren würden. Dies liegt daran, dass sie weder Kenntnis von der Herstellung noch Zustimmung dazu hätten:

„Ich denke, dass der Deepfake vielleicht noch viel schlimmer wäre, denn bei einem Akt hat man ihn auch gemacht, also weiß man davon, während man beim Deepfake überhaupt keine Ahnung hat.“ Es könnte im wahrsten Sinne des Wortes gerade eine geben, und niemand könnte davon erfahren“ – Mädchen, 15–17 Jahre, Fokusgruppe „Internetangelegenheiten“.

Kommende Forschung zur generativen KI

Die britische Regierung hat sich gegen die Einführung neuer Gesetze zur KI entschieden. Stattdessen wird es auf bestehende Rechtsrahmen angewiesen sein, um die Produktion und den Einsatz neuer KI-Technologien zu regulieren.

Es ist immer noch unklar, ob dieser sanfte Ansatz Einzelpersonen – insbesondere Kinder – ausreichend vor dem gesamten Spektrum der von KI ausgehenden Risiken schützt, einschließlich neuer Schäden durch neue Dienste und Technologien.

Es ist wichtig, dass die Ansichten und Bedenken junger Menschen und Eltern bei der politischen Entscheidungsfindung rund um den Einsatz generativer KI berücksichtigt werden. Dies gilt insbesondere, wenn es um den Einsatz der Technologie im Bildungsbereich geht, wo die möglichen Anwendungen möglicherweise am wirkungsvollsten sind.

Deshalb freuen wir uns, dies bekannt zu geben neue Forschung zu den Auswirkungen generativer KI auf die Bildung, basierend auf den Ansichten von Kindern und Eltern. Die Forschung wird untersuchen, wie Familien und Schulen Gen-KI nutzen und welche Hoffnungen und Sorgen Kinder und Eltern für die Zukunft haben.

War das nützlich?
Sagen Sie uns, wie wir es verbessern können

Kürzliche Posts