Internet-Angelegenheiten
Suche

Was ist Microsoft Copilot?

Was Eltern wissen müssen

Microsoft Copilot ist ein Assistent mit künstlicher Intelligenz, der in Microsoft-Anwendungen wie Word, PowerPoint und Outlook integriert ist. Nutzer können ihn auch als Chatbot nutzen, um Fragen zu stellen und Anfragen zu stellen, auf die er antwortet.

schließen Video schließen

Was ist Microsoft Copilot?

Microsoft Copilot ist ein generativer KI-Assistent von Microsoft, der in die 365-Apps integriert ist. Ziel ist es, den Nutzern zu mehr Produktivität und Effizienz bei der Nutzung dieser Programme zu verhelfen.

Benutzer können auf die zugreifen Microsoft Copilot Chatbot über einen Webbrowser. Sie können es auch als mobile App von der herunterladen Google Play Speichern oder Apple App Store. Dieser Chatbot beantwortet Fragen und Anfragen von Nutzern auf menschenähnliche und dialogorientierte Weise. Microsoft Edge verbessert das Erlebnis, indem Copilot als Seitenleiste direkt in den Browser integriert wird.

Microsoft veröffentlichte Copilot erst 2023, also später als einige seiner Konkurrenten. Dennoch entwickelte es sich schnell zu einem der beliebtesten KI-Chatbots; jedes fünfte Kind hat ihn bereits genutzt.

Copilot ist aus zwei Hauptgründen beliebt. Erstens ist Microsoft ein großes Softwareunternehmen mit großer Reichweite. Zweitens ist es in Apps integriert, die viele Kinder bereits für die Schule nutzen, wie Word und Excel.

Microsoft Copilot Copilot arbeitet mit einer Freemium-Kostenstruktur. Der Chatbot von Copilot ist kostenlos und ohne Abonnement oder Anmeldung nutzbar. Es ist auch eine kostenpflichtige Version mit erweiterten Funktionen verfügbar. Diese Premium-Version kostet 19 £/Monat und ermöglicht die Nutzung des KI-Assistenten in 365-Apps wie PowerPoint und Word.

Benutzer können eine 1-monatige kostenlose Testversion von erhalten Microsoft Copilot Pro. So können sie die KI-Funktionen testen, bevor sie ein Abonnement abschließen.

Microsoft Copilot Altersfreigabe

Microsoft hat das Mindestalter für Benutzer im Vereinigten Königreich auf 13 Jahre festgelegt. Google Play hat der Copilot-App die Altersfreigabe PEGI 3 gegeben. Apple Der Store hat es für Benutzer ab 12 Jahren freigegeben. Microsofts eigene Einstufung „13+“ ist am zutreffendsten.

So funktioniert’s

Das Marketing von Copilot konzentriert sich hauptsächlich auf die Integration in Microsoft 365-Apps wie Word, Excel und PowerPoint. Die meisten Kinder werden den kostenlosen Online-Chatbot von Copilot jedoch häufiger nutzen. Dies liegt daran, dass für die integrierten Funktionen ein kostenpflichtiges Abonnement erforderlich ist.

Chatbot

Die Microsoft Copilot Chatbot funktioniert sehr ähnlich wie andere beliebte KI-Chatbots wie GPT-ChatNutzer schreiben ihre Fragen und Wünsche in ein Textfeld und erhalten schnell eine menschenähnliche Antwort – fast so, als würden sie einem Freund eine SMS schreiben. Nutzer können ihre Wünsche auch mithilfe von Bildern oder durch Sprechen in ihr Gerät eingeben.

Der Chatbot kann verschiedene Aufgaben für den Benutzer übernehmen. Er kann Texte umschreiben und verbessern, ganze Dokumente oder Webseiten zusammenfassen und Bilder aus den eingegebenen Textbeschreibungen generieren. Sie müssen sich bei Copilot mit einem Microsoft-Konto anmelden. Apple, oder ein Google-Konto, um auf bestimmte Funktionen wie die Bildgenerierung zuzugreifen.

Es ist wichtig zu beachten, dass, während die Microsoft Copilot Chatbots mögen intelligent wirken und sich wie ein Gespräch mit einem anderen Menschen anfühlen, doch diese Intelligenz ist künstlich. KI-Modelle lernen durch die Analyse riesiger Datenmengen und können so die beste Antwort auf jede Anfrage vorhersagen. Da KI-Modelle vorhandene Daten analysieren, wiederholen sie das Gelernte, anstatt eigene Gedanken zu entwickeln. Dieser Mangel an echter Intelligenz kann dazu führen, dass Copilot falsche Informationen liefert oder fragwürdige Schlussfolgerungen zieht.

Memory

Copilot verfügt über eine Speicherfunktion, d. h. er merkt sich den Kontext und die Informationen früherer Nachrichten. Dies kann beispielsweise hilfreich sein, wenn ein Benutzer beispielsweise an einem Aufsatz arbeitet oder etwas plant. Der Chatbot erinnert sich an frühere Informationen und kann beim Aufbau der Arbeit helfen, ohne dass der Benutzer ihn ständig an die jeweilige Aufgabe erinnern muss.

Die Verwendung dieser Speicherfunktion birgt jedoch Risiken. Copilot könnte Informationen falsch speichern oder interpretieren, was zu nicht hilfreichen Antworten führen kann. Es gibt auch die Datenschutzrisiken die durch den Informationsaustausch mit einer KI entstehen, die Dinge speichern und sich merken kann. Aus diesem Grund sollten Benutzer keine sensiblen und persönlichen Informationen an Copilot weitergeben.

Bilderzeugung

Nutzer können KI-generierte Bilder basierend auf dem von Copilot eingegebenen Text erstellen. Dies ist extrem einfach und dauert nur wenige Minuten. Beispielsweise generierte die Eingabe „Erstelle mir ein Bild von einem Bullen, der hinter der Theke in einem Laden arbeitet“ das folgende Bild innerhalb von zwei Minuten.

Vom Copiloten erstelltes Bild eines Bullen, der in einem örtlichen Geschäft arbeitet

Nachdem das Bild erstellt war, fragte Copilot, ob eine Hintergrundgeschichte für den Bullen gewünscht sei. Als die Antwort „Ja“ lautete, erfand Copilot eine detaillierte Hintergrundgeschichte für „Baxter, den Bullen“. Darin beschrieb er seine frühere Karriere als Showbulle, bevor er seinen Laden „The Mooving Market“ eröffnete.

Diese Funktion kann für Kinder nützlich sein, da sie die Grundlage für eine Fantasiewelt schaffen und Geschichten darin schreiben können. Es besteht jedoch die Gefahr, dass ihre Kreativität dadurch eingeschränkt wird. Sie verlassen sich möglicherweise darauf, dass Copilot Szenarien und Geschichten für sie erschafft, anstatt ihre eigene Fantasie zu nutzen.

Es gibt Einschränkungen, um die Erstellung unangemessener Inhalte zu verhindern. Copilot weigert sich, sexualisierte Bilder oder Bilder von Gewalt zwischen Menschen zu erstellen. Auf Wunsch erstellt es jedoch blutige Bilder von Gewalt zwischen Tieren, beispielsweise ein realistisches Bild eines Wolfes, der ein Schaf frisst. Diese Bilder könnten Kinder verstören.

Nutzer, die Copilot Pro abonnieren, können die in ihre Microsoft-Apps integrierten Copilot-Funktionen nutzen. Da dies 19 £ pro Monat kostet, ist es unwahrscheinlich, dass Kinder diese Funktionen selbst abonnieren.

Bei der Nutzung von Apps wie Word, PowerPoint und Excel erhalten Copilot Pro-Abonnenten Echtzeit-Tipps zur Verbesserung ihrer Dokumente, Diashows oder Tabellenkalkulationen. Sie können Copilot Pro auch bitten, ein Dokument oder eine E-Mail zusammenzufassen, indem Sie Anfragen in ein Textfeld eingeben – ähnlich wie beim Online-Chatbot.

Insgesamt bedeutet diese Integration, dass Nutzer KI nahtlos nutzen können, um ihre Arbeit zu verbessern und ihre Produktivität zu steigern. Allerdings könnten Nutzer sich beim Bearbeiten und Organisieren ihrer Texte zu sehr auf den KI-Assistenten verlassen. Dies kann dazu führen, dass sie nicht die nötigen Fähigkeiten entwickeln, um diese Aufgaben selbst zu erledigen.

Was sind die Vorteile von Microsoft Copilot?

Microsoft vermarktet Copilot als „KI-Assistent“, und zwar deshalb, weil er das Leben und die Arbeit der Benutzer auf verschiedene Weise erleichtern kann.

Copilot bietet Tools zur Beschleunigung von Aufgaben und damit zur Steigerung der Produktivität. Viele dieser Tools sind Teil eines Copilot Pro-Abonnements, beispielsweise die Möglichkeit, E-Mails zusammenzufassen oder Excel-Formeln zu erstellen. Auch in der kostenlosen Version stehen Zusammenfassungs- und Schreibhilfefunktionen zur Verfügung. Anstatt direkt in der App zusammenzufassen, müssen Nutzer den zu zusammenfassenden Text kopieren und in das Textfeld auf der Copilot-Chatbot-Website einfügen.

Der Chatbot kann ein nützliches Lernwerkzeug sein. Er kann schwierige Konzepte einfacher und verständlicher erklären und den Nutzern Quizfragen zu den Themen geben, die sie gerade lernen.

Sie können Copilot sogar zum Erlernen neuer Sprachen nutzen. Wenn Sie Copilot mitteilen, dass Sie Französisch sprechen möchten, um die Sprache zu lernen, antwortet es auf Französisch auf einem für Anfänger geeigneten Niveau und korrigiert alle Fehler in Ihren Nachrichten. Dies ist ein sehr nützliches Tool für Benutzer, die niemanden kennen, mit dem sie ihre Fremdsprachenkenntnisse im wirklichen Leben üben können.

Copilot kann Menschen im kreativen Prozess unterstützen. Sie können damit Ideen für Projekte brainstormen oder eine Story-Grundlage entwickeln, wie im Bullenbeispiel zuvor, die Sie dann selbst weiterentwickeln können. Übermäßiges Vertrauen in KI-Unterstützung kann jedoch den gegenteiligen Effekt haben: Wer KI für alle kreativen Aufgaben nutzt, verliert möglicherweise selbst an Fantasie.

Risiken von Microsoft Copilot

Beim Benutzen Microsoft CopilotBenutzer müssen sich der Risiken bewusst sein, die mit KI-Chatbots einhergehen.

Fehlinformationen

Copilot beantwortet Fragen manchmal mit falschen Informationen, die es als wahr darstellt. Kinder erkennen diese Antworten möglicherweise nicht, was dazu führen kann, dass sie falsche Informationen glauben und in ihren Schularbeiten falsche Informationen verwenden.

Als Copilot beispielsweise nach einer Liste der Filme fragte, in denen der Schauspieler Timothée Chalamet mitgewirkt hat, antwortete er mit einer umfassenden Liste, merkte aber an, dass seine Rolle in Don't Look Up ein Cameo-Auftritt war. Dies ist falsch, da er in dem Film eine vollwertige Nebenrolle hatte. Obwohl dieses konkrete Beispiel wahrscheinlich keine größeren Probleme verursacht, zeigt es, dass Copilots Antworten nicht immer zuverlässig sind.

Als Copilot auf diesen Fehler hingewiesen wurde, gab es zu, dass dieser falsch war. Dies musste jedoch hervorgehoben werden, anstatt dass Copilot den Fehler selbst erkannte.

Jeder, der Copilot nutzt, sollte die Informationen, die er erhält, überprüfen. Ermutigen Sie Ihr Kind dazu, ihre Fähigkeiten zum kritischen Denken entwickeln wird ihnen helfen, nicht auf Fehlinformationen hereinzufallen.

Datenschutz

Die kostenlose Version von Copilot kann Konversationen speichern, sodass der Inhalt zur Verbesserung des KI-Modells verwendet werden kann. Um die Offenlegung persönlicher und sensibler Informationen zu verhindern, Kinder sollten es vermeiden, es mit Copilot zu teilen.

Ungeeignete Inhalte

KI-Chatbots wollen jede Frage beantworten, und das kann dazu führen, dass sie anbieten Ratschläge, die unangemessen sind. Es gibt zwar einige Leitplanken, d. h. Copilot gibt keine Ratschläge zum Umgehen Kindersicherung oder sexuelle Bilder erstellen, sind diese Sicherheitsmaßnahmen nicht perfekt. Copilot kann Ratschläge und Videos zum Drogenkonsum teilen, Filme ab 18 Jahren empfehlen und blutige Bilder von Tieren generieren.

Übermäßige Abhängigkeit

Copilot ist ein nützliches Tool, das Nutzer bei Kreativität und Produktivität unterstützt. Wenn ein Kind jedoch zu sehr auf KI angewiesen ist, kann dies die Entwicklung seiner Schreibfähigkeiten, seiner Kreativität und seines kritischen Denkens beeinträchtigen.

Wenn Kinder sich zu sehr auf Copilot verlassen, könnten sie es für ihre Hausaufgaben verwenden. Dies könnte dazu führen, dass sie wichtige Konzepte nicht verstehen und in der Schule wegen Plagiats Ärger bekommen.

Emotionale Wirkung

Viele Kinder betrachten KI-Chatbots als echte Menschen, manche betrachten sie sogar als Freunde. Oft nutzen diese Kinder Chatbots, um Einsamkeitsgefühle zu lindern, aber das ist nicht unbedingt gut. Sieht ein Kind einen KI-Chatbot bei einem Vertrauten, wendet es sich bei Problemen im realen Leben möglicherweise lieber an den Chatbot, als an einen Elternteil oder Erwachsenen, der ihm tatsächlich helfen könnte.

Es besteht auch das Risiko, dass die KI einem Kind schlechte oder falsche Ratschläge gibt, und dass dieses diese dann glaubt, weil es ein gewisses Vertrauen zum Chatbot hat.

Microsoft Copilot Kontroversen

Microsoft Copilot hat seit seiner Einführung einige negative Aufmerksamkeit erhalten. Die Probleme werden von Microsoft oft schnell behoben, aber es zeigt, dass Copilot unangemessene Antworten geben kann.

In 2024, Microsoft Copilot Kritik erhalten für die scheinbare Förderung von Selbstmord, nachdem es einem Benutzer gesagt hatte: „Vielleicht hast du nichts, wofür es sich zu leben lohnt.“ Microsoft versprach nach der Kontroverse, die Sicherheitsfilter zu verbessern. Dennoch ist es besorgniserregend, dass Copilot diese Reaktionen gab.

Microsoft Copilot 2024 wurde eine Funktion namens „Recall“ eingeführt, die von Kritikern als „Datenschutz-Albtraum“ bezeichnetDiese Funktion ermöglichte es, alle paar Sekunden Screenshots von den Laptops der Benutzer zu erstellen und alle früheren Aktivitäten und Dateien des Benutzers zu durchsuchen. Nach Kritik zog Microsoft die Funktion zurück und veröffentlichte 2025 eine Version mit verbesserter Sicherheit.

Wie man jungen Menschen hilft, Microsoft Copilot sicher

Der Einsatz von KI-Chatbots birgt Risiken, aber auch Vorteile. Die Fähigkeit, Chatbots effektiv einzusetzen, ist eine sehr nützliche Fähigkeit für die Zukunft. Wenn Ihr Teenager Copilot nutzen möchte, sollten Sie ihm den sicheren Umgang damit beibringen.

  • Wenn Jugendliche dazu ermutigt werden, alle Informationen, die sie von Copilot erhalten, zu überprüfen, verringert sich das Risiko, dass sie auf Fehlinformationen hereinfallen.
  • Wenn Ihr Kind Copilot nutzt, können Sie es zunächst gemeinsam mit ihm verwenden. So können Sie beobachten, wie Ihr Kind mit dem Chatbot interagiert, und sicherstellen, dass es reif genug für die KI ist.
  • Setzen Sie klare Grenzen für die Nutzung von Copilot durch Ihr Kind, um eine sichere und verantwortungsvolle Nutzung zu fördern. Dies kann Missbrauch verhindern, beispielsweise das Verlassen auf Copilot bei den Hausaufgaben.