Der Copilot for Chat wird und wurde von Microsoft in Juni und Juli 2025 verbessert, erweitert und mit weiteren OpenA)/ChatGPT Funktionen ausgestattet. Darüber hinaus gab es jedoch seit März 2025 auch ein großes Compliance und Datenschutzupdate. In diesem Blogbeitrag befassen wir uns hauptsächlich mit den Compliance und Datenschutz Verbesserungen und Erweiterungen.
Copilot for Microsoft 365 und Copilot Chat – wächst zusammen
Es ist immer mehr erkennbar, dass die beiden Copiloten immer mehr zusammen wachsen. So ist der Copilot Chat nicht nur im Edge oder als WebApp verfügbar, sondern auch in Outlook oder Teams und wird auch bald in Office Programmen, wie Word, Excel und PowerPoint an der Seite auftauchen. Dazu kommt, dass der Copilot Chat nun auch Präsentationen erstellen kann und damit immer mehr ChatGPT Enterprise / Google Gemini Funktionen erhält. Ebenfalls gab es einen Boost in Richtung Qualität und Videoerstellung.
Die Unterschiede zur bezahlten Variante Copilot for Microsoft 365 werden kleiner. Letzter konzentriert sich auf den Bereich des Zugangs zu Unternehmensdaten, Teams Funktionen wie Zusammenfassung, Interpretator oder Facilitator, sowie im Bereich PowerPlatform oder M365 Admincener auf Unterstützung des Nutzers ohne Inhalte kopieren oder zuführen zu müssen.
Microsoft 365 Copilot und Copilot Chat sollen branchen- und organisationsübergreifend als generative KI demokratisiert werden. Diesem Leitbild liegt eine starke regulatorische und Compliance-Seite zugrunde, da es viele Branchen gibt, in denen Unternehmen Branchen- und Regulierungsstandards einhalten müssen. Für Organisationen innerhalb der EU gibt es darüber hinaus nun zusätzliche Anforderungen in Form der EU-Datengrenze oder des neu geschaffenen EU-KI-VO.
Verarbeitung in Microsoft 365 Copilot Chat LLM bis Kundendaten
Microsoft 365 Copilot wird mit den entsprechenden LLMs, wie OpenAI (ChatGPT Enterprise) in Europa als Shared Service verarbeitet. Dazu zählen alle Daten im Ruhezustand (AtRest) und während der Übertragung (in Transit). Dies umfasst auch alle Eingaben oder Inhalte, wie Dateien, die dem System aktiv durch den Nutzer im Microsoft 365 Copilot Chat hinzugefügt werden. Dateien landen auf meine Anregung hin direkt im OneDrive des jeweiligen Nutzers und damit in der Tenant-Region des Kunden. Das KI-Werkzeug Microsoft 365 Copilot, also auch Copilot Chat, ist ein Shared Service in der Tenant-Service-Region, also Europa.Eine Datenübertragung in die USA findet für den Copilot for Chat an sich nicht statt, da die Produkte dem EU-Boundary-Programm unterfallen (siehe Produktbedingungen Juli 2025). Dennoch gilt dies nicht für Agents oder Webqueries, also die Anbindung von Funktionen wie den Bing Search Dienst.

Quelle: Microsoft GBB Team
EU Boundary Program bis zu CoreService
Mit der Microsoft EU-Datengrenzen-Initiative gewährleistet Microsoft zudem die Datensouveränität, indem es sicherstellen, dass die Verarbeitung und Speicherung von Kundendaten innerhalb der EU erfolgt. Neu im Juli 2025, auch nach dem Abschluss des EU Boudary Programm in Februar wurde Microsoft 365 Copilot Chat hinzugefügt und hinzugenommen.
Copilot Chat Service | EU Boundary |
Copilot for Microsoft 365 | EU Boundary |
Copilot Chat Anhänge/Dateien | Tenant Boundary (OneDrive des Users) |
Copilot for Microsoft 365 Dateien | Tenant Boundary |
Webqueries Copilot Chat, Copilot for Microsoft 365 | US Bing Search Service |
Agents und Connectoren | je nach Service der angebunden wird kann es weltweit sein. |
Core Service
Weiterhin ist der Copilot Chat und Copilot for Microsoft 365 ein Core Service. Dieser Core Service, wie Entra ID oder Exchange Online, bedeutet, dass Microsoft Änderungen nur nach Ankündigung mindestens 6 Monate vorher ankündigen muss und DPA unterfällt.
SOC Zertifizierungen und weitere
Auch der Copilot Chat hat nun die SOC 1 Typ II und SOC 2 Type II bestanden und wurde dem Copilot for Microsoft 365 angeglichen.

Quelle: Microsoft
Achtung: Das BSI C5 Zertifikat ist bald wieder online. Für Azure und M365 liegt es schon vor, in M365 ist es auch integriert.
Copilot Chat | Copilot for Microsoft 365 | |
Commercial Enterprise Protection | X | X |
Urheberrechtszusage | X | X |
Core Service | X | X |
EU Boundary Program | X | X |
SOC 2 Type 1 und Type 2 | X | X |
ISO 27001, 27017,27018, 27701,42001 | X | X |
CSA STA | X | X |
GDPR | X | X |
HIPAA | X | X |
CCPA | X | X |
BSI C5 | X | X |
FedRAMP High | X | X |
Microsoft Purview
Microsoft Purview Data Security Posture Management (DSPM) für KI innerhalb des Azure und Microsoft 365 Purview-Portals bietet einen zentralen Verwaltungsspeicherort. So könnt ihr für KI-Apps schnell sichern, die KI-Nutzung proaktiv überwachen und Bewertungen mit regulatorischen Vorlagen wie dem EU AI Act durchführen.
Neuer Bericht über pers. Daten in Copilot Chat

Bericht
Dazu kommen die bereits bekannten technischen Purview Maßnahmen:
- DLP Richtline zur Verhinderung der Copilot Verarbeitung (Teams Chat bis Office Dateien), wird im August GA (gebunden an Label und Zukunft an Inhalte Sensitivity Infotypes)
- Sensitivity Label PowerShell zur Unterstützung der verbundenen Erfahrungen, die Inhalte analysieren und blockiert Copilot.
- SharePoint Online SAM Einstellung zur Unterdrückung von Copilot Verarbeitung der SharePoint Site.
- Copilot Chat: RMS verschlüsselte Dateien können nicht verarbeitet werden.
- Reporting: DSMP for AI und Auditlogs
- Steuerung: Communication Compliance, DLP und Insider Risk; z.B. Verhinderung der Eingabe von Kundendaten.
Webqueries und Datenübertragung in die USA
WebQueries bei Copilot sind spezielle Suchanfragen, die du direkt in einem Gespräch mit Copilot stellen kannst, um aktuelle Informationen aus dem Internet zu erhalten. Wenn du zum Beispiel nach den neuesten Nachrichten, Produktvergleichen, Gesetzesänderungen oder lokalen Veranstaltungen fragst, führt Copilot im Hintergrund eine Websuche durch – das ist eine sogenannte WebQuery.
- Was ist eine WebQuery?
Eine WebQuery ist eine automatische Internetsuche, die Copilot ausführt, um deine Frage mit aktuellen und verlässlichen Informationen zu beantworten. - Wann wird sie verwendet?
Immer dann, wenn du nach etwas fragst, das sich häufig ändert oder sehr spezifisch ist – z. B. Wetter, Nachrichten, Preise, Veranstaltungen, Gesetze oder Prominente. - Wie funktioniert das?
Copilot formuliert eine passende Suchanfrage, durchsucht das Web und fasst die wichtigsten Ergebnisse für dich zusammen – alles innerhalb des Chats. - WebQueries als Bing search service
Der Bing-Service (USA) kann über die Webqueries an den Microsoft 365 Copilot Chat angebunden werden, im Grunde wie ein KI-Agent. Er ist technisch deaktivierbar.
Bing search service
Der Bing-Suchdienst ist ein reiner US-Dienst und unterfällt nicht dem EU-Boundary-Programm. Es stand auch nur kurz zur Debatte, ob man eine Instanz in Europa aufbaut, man hat sich auch in Ermangelung der Konkurrenz und aus technischen Gründen dagegen entschieden, den Dienst ein weiteres Mal zu betreibe. Es gibt einen Suchservice, wie auch bei Google.
Die Nutzung des Bing search service über Copilot for Chat und Copilot for Microsoft 365 stellt keine Auftragsdatenverarbeitung dar, sondern eine Verarbeitung in der datenschutzrechtlichen Verantwortung von Microsoft Corp. Microsoft überträgt in eigener Verantwortung bestimmte Daten (Orchestrator wählt aus) an den Bing-Suchdienst in den USA, um die Ergebnisse des KI-Dienstes zu verbessern und aktuelle Werte auszugeben (z. B. aktuelle Wetterdaten).
Microsoft beruft sich in diesem Fall auf Art. 6 Abs. 1 lit. f DSGVO, das überwiegende berechtigte Interesse zur vertraglichen Erfüllung und zur Erbringung der bestmöglichen Ergebnisse für die Kundinnen und Kunden (paralleles Interesse). Diese Verarbeitung beinhaltet die Übertragung in die USA, die Suche und die Rücksendung der Ergebnisse.

Quelle: Microsoft GBB Team
Microsoft beruft sich für die Datenübertragung in ein Drittland in erster Linie auf den bestehenden und von der EU-Kommission im Januar 2025 in der Überprüfung bestätigten DAPF. Microsoft unterfällt diesem für HR- und Non-HR-Daten.
In Folge einiger Kritik meinerseits und einiger Datenschützer, die in den USA von CELA gehört wurde, beruft sich Microsoft ebenfalls auf die Standardvertragsklauseln (Service Trust Center) zwischen Microsoft Corp. und Microsoft Irland.
Datenübertragung Copilot Chat
Sender | Empfänger | Daten |
Microsoft Irland | Microsoft Corp. als Subdienstleister | HR und NON HR Daten |
Dies stellt also eine Übertragung von Controller zu Controller da.
Gültigkeit DAPF und Standardvertragsklauseln
Des Weiteren ist im Juli 2025 festzustellen, dass sowohl das DAPF als auch die Standardvertragsklauseln mit entsprechenden Safe Guards (seit 2022 siehe DSK) von Microsoft für die Datenübertragung in die USA ausreichen. Mein Kollege Olaf Koglin und ich haben fast parallel angefragt und dies auch von einigen LDSBs/DSK bestätigt bekommen. Beides sind gültige Rechtsgrundlagen zur Datenübertragung in die USA.
Weitere vertragliche Safe Guards
https://aka.ms/copilot/web-query-terms
„Der Abschnitt „Microsoft 365 Copilot und Microsoft 365 Copilot Chat“ der Produktbedingungen enthält die folgenden zusätzlichen Verpflichtungen zu den generierten Suchabfragen, die an den Bing-Suchdienst gesendet werden:
- Microsoft hat keine anderen Rechte als dies für die Bereitstellung des Dienstes erforderlich ist.
- Sie werden nicht verwendet, um Bing zu verbessern.
- Sie werden nicht zum Erstellen von Werbeprofilen oder zum Nachverfolgen des Benutzerverhaltens verwendet.
- Sie werden nicht mit Werbetreibenden geteilt.
- Sie werden nicht verwendet, um generative KI-Grundlagenmodelle zu trainieren.
- Sie werden als vertrauliche Kundeninformationen behandelt und durch geeignete technische und organisatorische Maßnahmen geschützt.“
Dies ab Anfang März 2025 in den Produktterms und ab Mitte März in die Dokumentation hinzugefügt. Ein Dank geht an Friedhelm von Microsoft, einige meiner Kunden und meinem Microsoft Corp Ansprechpartnern. Wir haben diese Formulierungen in die PT und MSLearn gebracht.
Weitere technische Safe Guards
Microsoft auf meine und die Hinweise einiger anderer Juristen/Datenschützer hin die Nutzung von WebQueries mit Bing Search auch verbessert, so dass für die Versendung in die USA gilt:

Quelle: Microsoft GBB Team
Dies ist im Microsoft MSLearn auch aufgelistet:
„Generierte Suchabfragen werden an den Bing-Suchdienst gesendet, wobei Benutzer- und Mandanten-IDs entfernt wurden. Außerdem haben Websuchabfragen, die an Bing gesendet werden, keine der folgenden Auswirkungen:
- Suchranking
- Antworten oder Features wie Rich Captions
- Features für soziale Netzwerke wie „Auto Suggest“, „Trending“ und „Zero Input““
und folgende Parameter gelten:
- Gesamte Eingabeaufforderungen
- Gesamte Microsoft 365-Dateien
- Gesamte zusammengefasste Webseiten oder PDFs
- Entra-ID-Informationen (Benutzername, Domäne, Mandanten-ID usw.)
Missusefilter / Fehlverhalten
Der Missusefilter (auch „Missbrauchsfilter“) ist ein Sicherheitsmechanismus in Copilot, der dafür sorgt, dass Inhalte, die gegen ethische, rechtliche oder sicherheitsrelevante Richtlinien verstoßen, automatisch erkannt und blockiert werden.
Kurz erklärt:
- Zweck: Schutz vor schädlichen, unangemessenen oder gefährlichen Inhalten.
- Funktionsweise: Der Filter analysiert Anfragen und Inhalte auf sensible Themen wie Gewalt, Diskriminierung, sexuelle Inhalte oder illegale Aktivitäten.
- Ergebnis: Wenn eine Anfrage gegen die Richtlinien verstößt, wird sie nicht beantwortet und stattdessen freundlich auf eine alternative Gesprächsrichtung hingewiesen.
Der Missusefilter ist ein zentraler Bestandteil, um Copilot sicher, verantwortungsvoll und für alle Nutzer geeignet zu halten. Im Rahmen des Missusefilters stehe ich mit dem Produktteam und der Leiterin Sarah Bird und dem Team in sehr engem Austausch.
Missuse Filter speichert folgende Daten für 30 Tage innerhalb der EU Region:
- Prompt,
- UPN,
- Tenant-ID,
- IP-Adresse,
- Kategorie des Verstoßes
Der Missusefilter reagiert auf:
- Einhaltung der Nutzungsbedingungen von Microsoft,
- der KI-VO,
- gesetzlicher Regelungen wie dem Strafrecht,
- Urheberrecht
- ethischer Grundsätze
Filter deaktivieren?
Wichtig zu wissen ist, dass man den Filter technisch deaktivieren kann, dann sind jedoch alle einseitigen Zusagen von Microsoft nicht mehr gültig. Eine Deaktivierung kann nach Bewertung den Copilot zu einem verbotenen KI nach KI VO machen.
Begrenzung
Es gibt keine zeitliche Begrenzung, nach deren Ablauf ein Fehlverhalten zur Sperrung des Nutzers führt. Microsoft kommuniziert diese Grenze bewusst nicht, um nicht unter dieser Grenze zu bleiben. Der Filter ist für Copilot Chat nicht konfigurierbar, bei Azure AI (Content Safety) ist dies jedoch möglich.
Prozess von Fehlverhalten bis Entsperrung
Verstöße in der Häufung (mind. 20)-> Monitoring nun auch in DSMP for AI -> Sperrung des Nutzers durch Microsoft -> Mitteilung an den M365-Admin über das Message Center -> Entscheidung des Kunden über Freischaltung oder Blockierung.
Der genauere Report ist dann:
Dahinter steckt Communication Compliance und dann per Richtlinie auch Details anzeigen:
Im Detail kann man dann schauen als Communication Compliance:
oder
Quelle: DSMP for AI Monitoringhttps://learn.microsoft.com/de-de/azure/ai-services/openai/concepts/content-filter?tabs=warning%2Cpython#harm-categories
https://learn.microsoft.com/de-de/copilot/microsoft-365/microsoft-365-copilot-privacy
https://learn.microsoft.com/de-de/copilot/microsoft-365/microsoft-365-copilot-privacy
Monitoring
Ebenfalls hat Microsoft zu Juli 2025 auf mein Anraten hin ein erstes Monitoring im DSPM for AI freigegeben. Im Bereich Warnungen können nun seit Juli 2025 Administratoren diese Eingaben überprüfen und auch nachverfolgen, dies bevor es zu einer Sperrung kommt.
Insider Risk Management verfolgt die Warnungen und können so auch im SOC Siem genutzt werden. Um Details zu erhalten muss man Insider Risk Management aktiviert haben (E5!).
Links und Quellen
Microsoft auf LinkedIn zu dem Thema:
Erfahren Sie mehr darüber, wie wir Vertrauen durch Design in unsere generativen KI-Lösungen einbauen: https://lnkd.in/eeWGU44p
Erfahren Sie mehr über den ISO42001 Standard für KI-Managementsysteme: https://lnkd.in/eNBK-Ypq
Erfahren Sie mehr über unser Programm und unsere Praktiken für verantwortungsvolle KI: https://lnkd.in/eyRTFyt9
Erfahren Sie mehr über den EU-KI-Act: https://lnkd.in/egNam9CM
Erfahren Sie mehr über unser Engagement für EU-Datengrenzen: https://lnkd.in/eVEvGdCU
Kurzanleitung zur Microsoft 365 Copilot-Risikobewertung: https://lnkd.in/eYTtN2gx
Erfahren Sie mehr über Microsoft Purview für KI: https://lnkd.in/eSZBtVMt