Ein Softwarefehler im KI-Assistenten Copilot von Microsoft hat dazu geführt, dass in Unternehmensumgebungen vertrauliche E-Mails zusammengefasst wurden, die eigentlich geschützt sein sollten. Das Problem umging die etablierten Sicherheitsrichtlinien und wirft grundlegende Fragen zur Datensicherheit beim Einsatz von künstlicher Intelligenz am Arbeitsplatz auf.
Microsoft hat bestätigt, dass das Problem auf einen Fehler im Code zurückzuführen ist und bereits im Januar entdeckt wurde. Ein Korrektur-Update wird seit Anfang Februar an die betroffenen Unternehmenskunden verteilt.
Das Wichtigste in Kürze
- Ein Bug in Microsoft 365 Copilot ermöglichte den Zugriff auf als vertraulich markierte E-Mails.
- Die KI fasste Inhalte aus den Ordnern „Gesendete Elemente“ und „Entwürfe“ zusammen.
- Dadurch wurden die Data Loss Prevention (DLP) Richtlinien von Unternehmen umgangen.
- Microsoft hat den Fehler bestätigt und verteilt seit Anfang Februar eine Korrektur.
Sicherheitslücke im digitalen Assistenten
In der modernen Arbeitswelt sollen KI-Assistenten wie Microsoft Copilot die Produktivität steigern, indem sie Dokumente erstellen, Daten analysieren und Kommunikation zusammenfassen. Eine kürzlich bekannt gewordene Sicherheitslücke zeigt jedoch die potenziellen Risiken dieser Technologie, insbesondere im Umgang mit sensiblen Unternehmensdaten.
Betroffen war die Funktion „Copilot Chat“ innerhalb der Microsoft 365 Suite, die in Programmen wie Outlook, Word und Teams integriert ist. Der Fehler führte dazu, dass der KI-Assistent E-Mails analysieren und deren Inhalte zusammenfassen konnte, obwohl diese von den Nutzern explizit mit einem Vertraulichkeitslabel versehen waren. Solche Labels sind ein zentraler Bestandteil von Sicherheitskonzepten in Unternehmen, um den Zugriff auf sensible Informationen zu beschränken.
Wie der Fehler die Schutzmechanismen aushebelte
Die Sicherheitsrichtlinien zur Verhinderung von Datenverlust, bekannt als Data Loss Prevention (DLP), sollen eigentlich genau solche Szenarien verhindern. Sie definieren, welche Daten als sensibel gelten und wie diese verarbeitet werden dürfen. Automatisierte Systeme wie ein KI-Assistent dürften auf solche geschützten Inhalte normalerweise nicht zugreifen.
Der Fehler in Copilot umging diese Schutzmauern. Konkret griff der Chat-Assistent auf E-Mails in den Ordnern „Gesendete Elemente“ und „Entwürfe“ der Nutzer zu. Selbst wenn eine Nachricht als „vertraulich“ gekennzeichnet war, wurde sie von der KI verarbeitet. Dies stellt eine erhebliche Verletzung der Daten-Compliance-Regeln dar, auf die sich Unternehmen verlassen.
Was ist Microsoft Copilot?
Microsoft Copilot ist ein KI-basierter Assistent, der in die Microsoft 365-Anwendungen integriert ist. Er soll Nutzern helfen, E-Mails zu formulieren, Dokumente zu erstellen, Daten in Excel zu analysieren oder Präsentationen in PowerPoint vorzubereiten. Die Technologie basiert auf großen Sprachmodellen und ist darauf ausgelegt, kontextbezogene Unterstützung zu leisten.
Microsofts Reaktion und die Folgen für Unternehmen
Der Vorfall, der intern unter der Kennung CW1226324 geführt wird, wurde von Microsoft erstmals am 21. Januar dieses Jahres entdeckt. In einer Mitteilung an betroffene Administratoren bestätigte das Unternehmen, dass ein Problem im Programmcode für das Fehlverhalten verantwortlich war.
Seit Anfang Februar hat Microsoft damit begonnen, eine Korrektur für den Fehler auszurollen. Der Prozess wird weiterhin überwacht, und das Unternehmen nimmt Kontakt zu einigen betroffenen Organisationen auf, um sicherzustellen, dass die implementierte Lösung wie erwartet funktioniert. Wie viele Unternehmen von dieser Sicherheitslücke betroffen waren, hat Microsoft bisher nicht bekannt gegeben. Die Untersuchung des genauen Ausmaßes dauert noch an.
Zeitlicher Ablauf des Vorfalls
- 21. Januar 2026: Microsoft entdeckt den Fehler erstmals.
- Anfang Februar 2026: Beginn der Verteilung eines Patches zur Behebung des Problems.
- Laufend: Überwachung der Implementierung und Kontaktaufnahme mit betroffenen Kunden.
Für Unternehmen unterstreicht dieser Vorfall die Notwendigkeit, die Implementierung von KI-Werkzeugen sorgfältig zu prüfen und zu überwachen. Der automatisierte Zugriff auf Daten birgt neue Risiken, die über traditionelle Cybersicherheitsbedrohungen hinausgehen. Die Einhaltung von Datenschutzrichtlinien und der Schutz von Geschäftsgeheimnissen müssen bei der Integration von KI-Systemen oberste Priorität haben.
Ein Weckruf für die KI-Sicherheit
Die Integration von künstlicher Intelligenz in alltägliche Büroanwendungen ist einer der größten Technologietrends der letzten Jahre. Unternehmen wie Microsoft und Google investieren massiv in die Entwicklung von KI-Assistenten, die den Arbeitsalltag revolutionieren sollen. Der Vorfall mit Copilot dient jedoch als wichtige Mahnung.
Experten warnen schon länger vor neuen Sicherheitsrisiken, die durch KI entstehen. Dazu gehören nicht nur Datenschutzverletzungen wie im aktuellen Fall, sondern auch Gefahren wie „Prompt Injection“, bei der Angreifer versuchen, die KI durch manipulierte Eingaben zu unerwünschten Handlungen zu bewegen.
Der Fall zeigt, dass selbst hochentwickelte Sicherheitsprotokolle durch einfache Programmierfehler ausgehebelt werden können. Je stärker KI-Systeme in kritische Geschäftsprozesse eingebunden werden, desto wichtiger werden transparente Kontrollen und robuste Sicherheitsarchitekturen. Unternehmen müssen sicherstellen, dass ihre KI-Anwendungen die internen und gesetzlichen Datenschutzvorgaben nicht nur theoretisch, sondern auch praktisch jederzeit einhalten. Die Verantwortung liegt letztlich sowohl bei den Anbietern der Technologie als auch bei den Unternehmen, die sie einsetzen.





