Der Einsatz des KI-gestützten Copiloten für Microsoft 365 wirft besondere Datenschutzbedenken auf. Diese KI-gestützte Funktion nutzt eine Vielzahl von Daten, um das Benutzererlebnis zu verbessern.
Was jedoch zu schwerwiegenden Verstößen gegen Datenschutzrichtlinien führen kann. Hier sind die zentralen Kritikpunkte und Handlungsempfehlungen.
Datenverarbeitung durch KI
Der Copilot von Microsoft 365 greift auf nahezu alle verfügbaren Benutzerdaten zu, um seine Aufgaben zu erfüllen. Dazu gehören Inhalte von E-Mails, Dokumenten, Kalenderdaten und vielem mehr.
Das Problem: Diese Daten werden als Input für die KI verwendet.
Unzureichende Transparenz bei der Datenverarbeitung
Microsoft bietet bisher keine vollständige Transparenz darüber, welche Daten der Copilot verarbeitet und wie genau diese genutzt werden. Dies ist aus datenschutzrechtlicher Sicht kritisch, da die Nutzer und Unternehmen somit die Kontrolle über ihre eigenen Daten verlieren. Ohne diese Transparenz ist es schwer einzuschätzen, ob die Datenverarbeitung im Einklang mit den Grundsätzen der Datenschutz-Grundverordnung (DSGVO) steht – insbesondere in Bezug auf die Datenminimierung und Zweckbindung.
Mögliche Verstöße gegen die DSGVO
Ein großes Problem besteht in der potenziellen Verletzung zentraler Datenschutzprinzipien. Vor allem die fehlenden Rechtsgrundlagen für eine derart weitreichende Datenverarbeitung sind wichtig. Der Nutzer könnte nicht ausreichend informiert oder in die Verarbeitung eingewilligt worden sein. Darüber hinaus besteht das Risiko, dass die Daten für andere Zwecke als ursprünglich vorgesehen verarbeitet werden. Dies steht im direkten Widerspruch zur DSGVO, die strengen Vorgaben für den Schutz personenbezogener Daten formuliert. Unternehmen sollten daher mit Vorsicht vorgehen, um Verstöße gegen die DSGVO zu vermeiden .
Lösung und Datenschutzberatung
Unternehmen, die dennoch der Copilot nutzen wollen, sollten sich intensiv mit den möglichen Risiken auseinandersetzen und vor der Aktivierung des Features unbedingt eine Datenschutzprüfung durchführen. Eine mögliche Lösung könnte das kostenpflichtige Tool MS-Purview sein.
Prüfung vor Einführung des Systems
Bevor der Copilot in Microsoft 365 aktiviert wird, ist es wichtig, dass das Unternehmen eine gründliche Prüfung durchführt. Dabei sollte eine Checkliste zur Einführung neuer KI-Systeme verwendet werden.
Fazit
Der Copilot für Microsoft 365 bietet auf den ersten Blick nützliche Funktionen, doch die datenschutzrechtlichen Risiken sind nicht zu unterschätzen. Ohne ausreichende Vorkehrungen drohen Datenschutzverstöße, die schwerwiegende Folgen für Unternehmen haben können. Es ist daher dringend zu empfehlen, vor der Aktivierung dieser Funktionen eine umfassende datenschutzrechtliche Prüfung durchzuführen und geeignete Gegenmaßnahmen zu ergreifen.