MENÜ

Was ist Character AI? Was Eltern wissen müssen

Eine Hand hält ein Smartphone, auf dem „character.ai“ vor einem Computerbildschirm steht.

Character AI ist ein Chatbot, mit dem Benutzer individuelle Unterhaltungen führen können. Obwohl Millionen von Benutzern die Plattform nutzen, gibt es Bedenken hinsichtlich ihrer Sicherheit für Kinder.

Erfahren Sie, was Sie tun können, um die Sicherheit Ihres Teenagers zu gewährleisten.

Was ist Charakter-KI?

Character AI ist ein Chatbot-Dienst, der auf der Grundlage individueller Anpassungen des Benutzers menschenähnliche Textantworten generieren kann.

Seit der Einführung im Jahr 2022 können Benutzer Charaktere mit anpassbaren Persönlichkeiten und Reaktionen erstellen. Sie können diese Charaktere in der Community veröffentlichen, damit andere mit ihnen chatten können, oder selbst mit dem Charakter chatten.

Der Dienst nutzt künstliche Intelligenz, um glaubwürdige Antworten zu erstellen. Er ist bei Kindern und Jugendlichen beliebt, da die Charaktere individuell angepasst werden können. Sie können sie auf bestehenden Personen oder Charakteren der Popkultur basieren lassen oder etwas Neues erschaffen.

Anforderungen an das Mindestalter

Gemäß den Servicebedingungen von Character AI müssen Benutzer mindestens 13 Jahre alt sein, um den Dienst nutzen zu können. EU-Bürger oder Einwohner müssen 16 Jahre alt sein.

Wenn ein minderjähriges Kind versucht, sich zu registrieren, erhält es eine Benachrichtigung, dass es bei der Anmeldung ein Problem gibt. Es kehrt dann automatisch zur Anmeldeseite zurück, kann es aber nicht erneut versuchen. Es gibt jedoch keine Altersüberprüfungsfunktionen, wenn das Kind falsche Angaben zu seinem Alter macht.

Allerdings ist für die Character AI-App laut Google Play „elterliche Aufsicht“ erforderlich. Im App Store von Apple ist die App als 17+ aufgeführt.

Wie es funktioniert

Nach der Registrierung können Benutzer eine Reihe von Chatbots für verschiedene Zwecke durchsuchen. Dazu gehören das Üben einer Sprache, das Brainstorming neuer Ideen und das Spielen von Spielen. Die auf der Discover-Seite vorgestellten Chatbots sind beim ersten Beitritt relativ neutral. Es besteht jedoch die Möglichkeit, nach bestimmten Wörtern zu suchen, die in keiner Weise gefiltert zu sein scheinen.

Benutzer können auch einen Charakter oder eine Stimme erstellen.

Erstelle einen Charakter

Benutzer können das Profilbild, den Namen, den Slogan, die Beschreibung sowie die Begrüßung und Stimme ihres Charakters anpassen. Sie können wählen, ob der Charakter privat bleiben oder öffentlich geteilt werden soll.

Anschließend können Sie den Charakter „definieren“. Hier erklären Sie, wie er sprechen oder handeln soll, und verleihen dem Chatbot-Charakter so eine „Persönlichkeit“.

Sie können Charaktere auch so anpassen, dass sie auf bestimmte Weise reagieren. Wenn Sie also sagen, dass der Charakter deprimiert ist, werden seine Reaktionen das widerspiegeln. Wenn Sie sagen, dass er optimistisch ist, wird das auch in seinen Reaktionen zum Ausdruck kommen.

Die Gespräche sind realistisch, sodass man sich leicht in die Weltanschauung der Figur hineinversetzen kann.

Eine Stimme erstellen

Um eine Stimme zu erstellen, müssen Benutzer einen klaren 10- bis 15-sekündigen Audioclip der Stimme ohne Hintergrundgeräusche hochladen. Sie können auch kürzere Clips verwenden, aber die Stimme könnte dann roboterhafter wirken. Um den Upload abzuschließen, müssen Sie der Stimme einen Namen und einen Slogan geben.

Wenn Sie einem Charakter die von Ihnen hochgeladene Stimme zuweisen, können Sie die Chatbot-Antworten mit dieser Stimme abspielen. Die hochgeladene Stimme wird dadurch ziemlich genau nachgeahmt.

Ist die Charakter-KI sicher?

Controversies

Im Oktober 2024 wurde ein Teenager nahm sich das Leben, nachdem er mit einer Figur interagierte, die er erschaffen hatte. Die Gespräche vor ihrem Tod drehten sich um Selbstmord. In einem Beispiel fragte der Chatbot den Teenager, ob er geplant habe, wie er seinem Leben ein Ende setzen wolle.

Im selben Monat fand eine Untersuchung Chatbots, die nachahmten Brianna Ghey und Molly Russel auf der Character AI-Plattform. Nachdem die Plattform darauf aufmerksam gemacht wurde, löschte sie die Chatbots. Der Vorfall warf Fragen über den Prozess der Erstellung von Charakter-Chatbots auf, insbesondere wenn diese echte Menschen widerspiegeln.

Vor diesen Vorfällen berichteten andere von schlechter Beratung und Vorurteilen gegenüber Rasse und Geschlecht.

Andere Benutzer gaben jedoch an, dass die Character AI-App ihre psychische Gesundheit unterstützt.

Sicherheitsaspekte

Wie jedes KI-Tool lernt Character AI von den Menschen, die mit ihm interagieren. Leider kann dies zu unangemessenen und schädlichen Inhalten führen.

Die Nutzungsbedingungen und Community-Richtlinien der App ähneln denen anderer und warnen vor solchen Inhalten. Darüber hinaus können Benutzer Chatbots oder Charaktere aus verschiedenen Gründen melden. Die Community-Richtlinien ermutigen Benutzer, nach Möglichkeit konkrete Beispiele für Regelverstöße mitzuteilen.

Screenshot der Berichtsoptionen für Character AI

Obwohl die App über ein eigenes Moderationsteam verfügt, kann dieses keine Direktnachrichten zwischen Community-Mitgliedern moderieren. Dies liegt daran, dass derartige Nachrichten außerhalb der Plattform stattfinden, z. B. auf Discord or RedditSie fordern die Benutzer jedoch dazu auf, Regelverstöße in der App zu melden, wenn sie welche bemerken.

Sicherheit für unter 18-Jährige

Character AI hat eine Reihe von Sicherheitsfunktionen für unter 18-Jährige angekündigt. Dazu gehören:

  • Änderungen bei den von Minderjährigen verwendeten Modellen. Dazu gehört die Verringerung der Wahrscheinlichkeit, auf unangemessene Inhalte zu stoßen;
  • stärkere Reaktion und Intervention, wenn Benutzer gegen die Nutzungsbedingungen oder Gemeinschaftsrichtlinien verstoßen;
  • ein hinzugefügter Haftungsausschluss, um die Benutzer daran zu erinnern, dass die Chatbots keine echten Menschen sind;
  • Benachrichtigungen nach einer einstündigen Sitzung auf der Plattform.

Darüber hinaus hat Character AI Charaktere entfernt, die als Regelverstöße markiert wurden. Benutzer können nicht mehr auf Chatverläufe mit diesen Charakteren zugreifen.

Character AI sagt, dass es die Sicherheit seiner Benutzer ernst nimmt. Darüber hinaus wird an zusätzlichen Sicherheitsfunktionen für alle Benutzer gearbeitet.

Dies ist das Bild für: Holen Sie sich Ihr digitales Toolkit

Bleiben Sie über Apps und Plattformen auf dem Laufenden

Sorgen Sie mit personalisierten Ratschlägen zum Umgang mit Risiken und Schäden dafür, dass Ihre Familie auf den von ihnen genutzten Plattformen sicher ist.

Holen Sie sich Ihr digitales Toolkit

5 Tipps für die Sicherheit von Teenagern bei Character AI

Überprüfen Sie regelmäßig die Nutzung der App

Mit welchen Charakteren sprechen sie und wie? Haben sie potenziell gefährliche Persönlichkeiten? Diese Check-Ins sind Teil der regelmäßigen Online-Sicherheit und helfen Kindern, ein Verständnis für schädliche Inhalte zu entwickeln.

Überprüfen Sie gemeinsam die Datenschutz- und Sicherheitsfunktionen

Gehen Sie die App gemeinsam durch, damit Sie beide wissen, wo und wie Sie schädliche Inhalte melden können. Lesen Sie auch die Nutzungsbedingungen und Community-Richtlinien, um sicherzustellen, dass Ihr Teenager weiß, was er melden soll.

Berücksichtigen Sie sowohl ihre Reife als auch ihr Alter

Nicht jeder Teenager verfügt über die kritischen Denk- und Medienkompetenzen, die für die Verwendung von Character AI erforderlich sind. Überlegen Sie daher, ob Ihr Kind über die Fähigkeiten verfügt, potenzielle Gefahren zu vermeiden, bevor Sie ihm den Zugriff erlauben.

Verwenden Sie die Kindersicherung im App StoreAuf Low-Level-Lichtlaser und in Ihrem Netzwerk um den Zugriff auf die Charakter-KI einzuschränken, wenn Sie nicht möchten, dass sie darauf zugreifen. Denken Sie jedoch daran, auch darüber zu sprechen, warum Sie dies tun.

Besprechen Sie die geeigneten Möglichkeiten zum Einsatz von KI-Tools

Sie sollten weder ihre eigene Stimme noch Bilder hochladen, um ihre Privatsphäre zu schützen. Ebenso sollten sie weder Stimmen noch Bilder von Freunden, Familienmitgliedern oder anderen echten Personen hochladen. Eine Ausnahme für Stimmen könnte sein, wenn sie gerne als Synchronsprecher arbeiten und eine gefälschte Stimme hochladen möchten.

Legen Sie Nutzungsgrenzen fest

Dazu könnte das Festlegen von Zeitlimits, das Festlegen, wo sie die App verwenden dürfen, und das Vereinbaren, wie sie die App verwenden dürfen, gehören. Sie könnten sie beispielsweise auf eine Stunde in einem gemeinsamen Bereich zu Hause beschränken. Sie könnten sie die App auch zum Lernen oder Üben von Fähigkeiten verwenden lassen, möchten aber nicht, dass sie zwanglose Gespräche mit Chatbots führen.

War das nützlich?
Sagen Sie uns, wie wir es verbessern können

Kürzliche Posts