Verzeichnisse ohne Plan?
Wer heute als Administrator:in in einer Microsoft-Umgebung arbeitet, trifft fast zwangsläufig auf gewachsene Verzeichnisstrukturen: Active Directory, hybride Szenarien, Entra ID. Was nach System klingt, ist oft das Ergebnis vieler Jahre technischer Evolution – oder auch: technischer Improvisation.
Junge Kolleg:innen, die neu in die Welt der Verzeichnisdienste eintauchen, übernehmen meist die Pflege und Verwaltung gewachsener Strukturen – ohne an deren Planung oder Einführung beteiligt gewesen zu sein.
Das Wissen über Entstehung, Aufbauprinzipien und strategische Hintergründe dieser Umgebungen ist häufig nur noch bruchstückhaft vorhanden. Vieles davon ist im Laufe der Jahre einfach verloren gegangen – und wurde seither kaum hinterfragt.
Die Haltung: „Es läuft – wir wissen nicht genau warum, aber ändern möchten wir daran lieber nichts“, ist dabei keine Seltenheit.
Das ist nicht nur aus historischer Perspektive bedauerlich, sondern wirkt sich heute konkret auf Koexistenz- und Migrationsszenarien aus:
- Warum ist der alte Domänencontroller eigentlich noch da?
- Wieso funktioniert die Gruppenrichtlinie nicht wie erwartet?
- Was genau repliziert Entra ID Connect eigentlich – und was nicht?
- Kann man GPOs nicht einfach in Intune übernehmen?
Fragen wie diese zeigen: Wer die historischen Grundlagen und den technischen Wandel von Microsofts Verzeichnisdiensten nicht kennt, läuft Gefahr, Fehlentscheidungen zu treffen – sei es bei der Anbindung von Cloud-Diensten, beim Umgestalten bestehender Umgebungen oder beim Delegieren von Rechten.
Dieser Beitrag soll daher nicht nur Wissen vermitteln, sondern Orientierung geben. Er führt durch die Geschichte von NT Directory Service, über die Einführung von Active Directory bis hin zu Entra ID – mit technischen Einblicken, strategischen Ausblicken und praktischen Empfehlungen für alle, die Microsofts Identitätsdienste heute verstehen und morgen gestalten wollen.
Was war vor NT 3.1? – Die Zeit vor dem Verzeichnis
Bevor Active Directory mit Windows 2000 den Standard für zentrale Verzeichnisdienste setzte, gab es in Microsoft-Netzwerken vor allem eines: keine zentrale Identität. Die frühen Jahre waren geprägt von Workgroup-Setups, lokalen Benutzerkonten und punktuellen Freigaben – jedes Gerät war für sich allein verantwortlich. Netzwerkadministration bedeutete: wiederholen, dokumentieren, kontrollieren – auf jedem einzelnen System.
MS-DOS, IBM und der Beginn von Microsofts Plattformstrategie
Microsofts Weg in die Unternehmensnetze begann weit vor Windows NT – nämlich mit der Lizenzierung und Weiterentwicklung von QDOS (Quick and Dirty Operating System), später als 86-DOS bekannt. Dieses Betriebssystem wurde 1981 von Microsoft erworben, weiterentwickelt und unter dem Namen MS-DOS zur Grundlage des IBM-PCs (PC-DOS 1.0). Die IBM-PC-Kompatibilität und das aggressive Lizenzmodell sorgten dafür, dass MS-DOS schnell zum De-facto-Standard wurde – trotz starker Konkurrenz wie CP/M-86.
Mit Windows 3.x folgte ab 1990 erstmals eine kommerziell erfolgreiche grafische Oberfläche. Sie setzte auf MS-DOS als Unterbau auf, war jedoch funktional begrenzt. Erst mit Windows NT bot Microsoft ein eigenständiges, netzwerkfähiges Betriebssystem, das auf Multitasking, NTFS, Rechtemodellen und einer durchdachten Architektur aufbaute.
IBM OS/2, Microsoft NT und der Mythos New Technology
Ursprünglich war Windows NT als Nachfolger von OS/2 2.0 gedacht – eingebettet in ein gemeinsames Entwicklungsprojekt von IBM und Microsoft, das 1985 initiiert wurde. Als sich die Wege beide Unternehmen aus Unstimmigkeiten trennten, setzte Microsoft ab 1990 die Arbeit eigenständig fort und veröffentlichte schließlich Windows NT 3.1 im Jahr 1993.
Die Versionsnummer 3.1 war dabei kein Zufall: Sie sollte die Verwandtschaft zur damals bereits erfolgreichen Windows-Version 3.1 signalisieren und zugleich den Eindruck erwecken, NT sei eine technisch gereifte Plattform – nicht bloß ein Neuanfang. Gleichzeitig distanzierte man sich damit elegant von IBMs OS/2 2.x-Linie.
Der Begriff NT wurde von Microsoft offiziell zunächst als New Technology kommuniziert – so z.B. in Marketingmaterialien und Produktvideos der frühen 1990er Jahre. Doch hinter der Bezeichnung steckt deutlich mehr als nur ein PR-Kürzel.
Die Ursprünge des Kürzels NT
Es existieren mehrere plausible Erklärungsansätze zur Namensherkunft:
- Technisch: Der ursprüngliche Zielprozessor für das System war der Intel i860, Codename N-Ten – daraus leitet sich das NT
- Entwicklungshistorisch: Das Projekt startete als NT OS/2, also als Weiterführung der OS/2-Linie unter neuer Architektur.
- Persönlich/ironisch: Ein verbreitetes Entwickler-Wortspiel bezieht sich auf VMS, das von Dave Cutler bei Digital Equipment Corporation (DEC) entworfen wurde. Der Witz: „WNT ist VMS + 1“ – V+1=W, M+1=N, S+1=T.
Cutler selbst war federführend bei der Entwicklung von VMS – und wurde später von Microsoft abgeworben, um eine robuste, skalierbare und sichere Betriebssystemarchitektur zu entwerfen. Viele Konzepte aus VMS fanden ihren Weg in Windows NT – darunter etwa der Objektmanager, der Schedulers-Ansatz oder der Kernel-Modus-Schutz.
In einem Q&A im Jahr 1998 sagte Bill Gates, das Akronym NT „habe früher einmal für ‚New Technology‘ gestanden“, trage heute aber keine konkrete Bedeutung mehr. Mit Windows 2000 verschwand der Begriff schrittweise aus der Produktbezeichnung – die technische Basis (NT-Kernel) blieb jedoch bis heute erhalten.
NT Directory Service – Das Fundament vor dem Verzeichnis
Mit Windows NT 3.1 führte Microsoft eine der ersten echten Unternehmensplattformen ein, die Netzwerkbetrieb, Sicherheit und Benutzerverwaltung in einem professionellen Betriebssystem vereinte. Der darin enthaltene NT Directory Service (häufig nur als NT-Domäne bezeichnet) war Microsofts erster Versuch, zentrale Identitäten in Netzwerken zu etablieren – ein großer Schritt im Vergleich zu den losen dezentralen Workgroup-Setups der MS-DOS-Zeit.
Das Konzept basierte auf einem klaren Rollenmodell:
- Primary Domain Controller (PDC): verwaltete alle Benutzerkonten und Gruppen zentral
- Backup Domain Controller (BDC): hielt eine schreibgeschützte Kopie aller Daten vor, übernahm ebenfalls Authentifizierungsfunktionen und konnte im Notfall die primäre Funktion übernehmen
- Security Account Manager (SAM): enthielt die lokale Kontodatenbank von Servern und Workstations, wurde jedoch nicht repliziert
Vorteile des NT-Domänenmodells
- Einfache Integration in Windows-Netzwerke durch NetBIOS
- Gruppenbasierte Rechtevergabe auf Ressourcen
- Unterstützung für Roaming Profiles und Logon Scripts
- Zentrale Anmeldung für Benutzer:innen im Netzwerk
Doch der Ansatz war von Anfang an begrenzt:
- Eingeschränkte Skalierbarkeit bei zunehmender Komplexität
- Kein echtes Verzeichnismodell: Die SAM war flach, nicht hierarchisch
- Kein LDAP, kein DNS-basiertes Konzept, kein Schemabegriff
- Keine Multi-Master-Replikation: Nur der PDC konnte Änderungen schreiben
- Replikation auf BDCs nur manuell oder zeitgesteuert
In größeren Netzwerken führte das schnell zu Verwaltungsaufwand, Redundanzproblemen und Sicherheitslücken. Dennoch bildete der NT Directory Service die Basis, auf der Microsoft später Active Directory entwickelte – mit denselben Zielen, aber auf einer deutlich robusteren technischen Grundlage.
Was ist ein Verzeichnisdienst?
Ein Verzeichnisdienst ist ein spezialisiertes Datenbanksystem, das Informationen über Benutzer, Geräte, Dienste und Ressourcen in einem Netzwerk zentral verwaltet.
Er ermöglicht:
- Authentifizierung (Wer bist du?)
- Autorisierung (Was darfst du?)
- Verwaltung (Wer verwaltet dich?)
Verzeichnisdienste arbeiten meist objektorientiert (Benutzer, Gruppen, Computer) und hierarchisch strukturiert (Domänen, Organisationseinheiten, Strukturen). Sie dienen als zentrale Instanz für Sicherheit, Richtliniensteuerung und Identitätsmanagement in IT-Umgebungen.
Typische Vertreter sind:
- Entra ID (vormals Azure AD)
- Microsoft Active Directory (AD)
- Novell eDirectory
- OpenLDAP / Red Hat Directory Server
Die Geburt von Active Directory – Architektur und Prinzipien
Mit der Veröffentlichung von Windows 2000 Server im Februar 2000 führte Microsoft das ein, worauf viele Administrator:innen jahrelang gewartet hatten: Active Directory Services (ADS; kurz: Active Directory, AD) – ein skalierbares, flexibles und verzeichnisbasiertes Identitätsmanagementsystem, das die Limitierungen des NT-Domänenmodells hinter sich ließ.
Der technologische Sprung war für die damalige Zeit immens:
- DNS-Integration: Namensauflösung wurde Bestandteil der Infrastruktur
- Flexible Rollenverteilung mit FSMO (Flexible Single Master Operations)
- Gruppenrichtlinienobjekte (GPOs): zentrale Verwaltung von Konfigurationen
- Hierarchische Objekte: Benutzer, Gruppen, Computer, Container, OUs
- LDAP-basiertes Verzeichnismodell: Strukturiert, durchsuchbar, standardisiert
- Multi-Master-Replikation: Jeder Domänencontroller konnte Änderungen entgegennehmen
Inspiration: Novell NetWare als Vorreiter
Es wäre jedoch einseitig, Active Directory nur als Weiterentwicklung des NT Directory Service zu betrachten. Tatsächlich spielte Novell NetWare eine entscheidende Rolle in Microsofts strategischer und technischer Ausrichtung.
Bereits in den 1990er Jahren hatte Novell mit dem NetWare Directory Services (NDS) ein echtes, X.500-inspiriertes Verzeichnisdienstsystem etabliert – mit verteilter Replikation, granularen Zugriffsrechten, Skalierbarkeit und einem klaren Objekthierarchiemodell. NDS war nicht nur technisch überlegen, sondern in vielen Großunternehmen weit verbreitet.
Microsoft erkannte früh, dass ein einfaches NT-Upgrade nicht reichen würde, um Novell in die Schranken zu weisen. Active Directory wurde daher strategisch als Antwort auf NDS entwickelt – mit vielen ähnlichen Konzepten, aber eingebettet in die Windows-Welt, mit besserer Integration in Clients und Administrationswerkzeuge wie die Microsoft Management Console (MMC).
Die erfolgreiche Einführung von Active Directory war damit nicht nur ein technologischer Fortschritt, sondern auch ein Wendepunkt im Wettbewerb: Während Novell an Marktanteilen verlor, setzte sich Microsofts Directory-Service-Ansatz zügig als Standard durch – auch weil Active Directory mit DNS, Kerberos und LDAP auf offene Standards setzte, ohne deren Komplexität unmittelbar auf die Administrator:innen abzuwälzen.

Exkurs: LDAP und Kerberos – Rückgrat klassischer Active Directory-Domänen
Zwei Protokolle bilden das technische Rückgrat klassischer Active Directory-Domänen: LDAP für strukturierte Abfragen und Objektverwaltung – und Kerberos für sichere, zentralisierte Authentifizierung. Beide sind nicht Microsoft-eigene Erfindungen, wurden aber gezielt in die Architektur von Active Directory integriert und damit zum Standard gemacht.
LDAP – das Fenster ins Verzeichnis
Das Lightweight Directory Access Protocol (LDAP) ist ein standardisiertes Protokoll zur Abfrage und Bearbeitung von Informationen in einem Verzeichnisdienst. Active Directory implementiert LDAP vollständig und nutzt es für:
- Attributbasierte Filter (z.B. (memberOf=…))
- Interoperabilität mit Drittanwendungen
- Objektbasierte Abfragen (z.B. Benutzer, Gruppen, Computer)
- Strukturierte Hierarchien (Distinguished Names, OUs, Container)
LDAP kommuniziert über Port 389 (unverschlüsselt) oder 636 (LDAPS) mit TLS-Verschlüsselung. Die meisten Administrator:innen begegnen LDAP regelmäßig – sei es bei Filterdefinitionen, bei der Objektverwaltung oder bei der Integration externer Dienste.
Kerberos – sicheres Single Sign-On im Unternehmensnetz
Kerberos ist seit Windows 2000 das Standard-Authentifizierungsprotokoll in Active Directory. Es basiert auf einem Ticketing-Modell, bei dem sich Benutzer:innen einmal anmelden und anschließend zeitlich begrenzte Zugriffstickets für weitere Dienste erhalten – Single Sign-On in seiner klassischen Form.
Die Vorteile im AD-Kontext:
- Sicher: Das Passwort selbst wird nie über das Netzwerk übertragen
- Effizient: Nach der Anmeldung erfolgen alle Zugriffe ohne neue Authentifizierung
- Integriert: Funktioniert nahtlos mit Datei- und Applikationsservern, Exchange, SharePoint usw.
- Zentral verwaltet: über das Key Distribution Center (KDC) auf jedem Domänencontroller
Die Einführung von Kerberos war ein strategischer Meilenstein – auch im Sinne der von Bill Gates in den 1990er Jahren formulierten Vision: „One user – one password“
Ziel war es, Benutzer:innen eine einzige Identität für alle Unternehmensressourcen bereitzustellen – sicher, konsistent und ohne Mehrfachanmeldungen.
Mit Active Directory und Kerberos wurde dieses Ziel erstmals skalierbar, sicher und betrieblich umsetzbar.
Kerberos verwendet UDP oder TCP auf Port 88 und ist in nahezu allen AD-basierten Authentifizierungsprozessen aktiv – auch wenn es für Benutzer:innen meist unsichtbar im Hintergrund arbeitet.
Wichtig: Nur im klassischen Active Directory
Sowohl LDAP als auch Kerberos sind Technologien der On-Premise-Welt. In modernen Cloud-Identitäten wie Entra ID werden stattdessen OAuth 2.0, OpenID Connect und SAML verwendet – webbasierte, tokenorientierte Authentifizierungsverfahren, die den Anforderungen mobiler, verteilter und föderierter Arbeitsumgebungen gerecht werden.
Auf diese Unterschiede gehen wir im späteren Verlauf des Beitrags nochmals detailliert ein.
Entwurf einer klassischen AD-Infrastruktur
Mit der Einführung von Active Directory in Windows 2000 begann für viele Unternehmen der Aufbau einer dauerhaften, hierarchischen Verzeichnisstruktur, die in Teilen bis heute existiert. Dabei entstanden nicht nur technisch belastbare, sondern auch historisch gewachsene Konstruktionen – mit allen Chancen und Herausforderungen, die damit einhergehen.
Ein durchdachter Entwurf umfasst typischerweise folgende Komponenten:
Domänen und Gesamtstrukturen – Von NetBIOS zu DNS
In der NT-Welt existierten Domänen weitgehend isoliert nebeneinander. Sie trugen NetBIOS-Namen, hatten keinen funktionalen oder logischen Zusammenhang und konnten lediglich über manuell eingerichtete Vertrauensstellungen (Trusts) miteinander verbunden werden. So konnten beispielsweise Domänen mit den Namen FIRMA, SUB und CORP im gleichen Netzwerk existieren – ohne dass sich daraus ein strukturierter Zusammenhang ergab. Die Vertrauensstellungen stellten Beziehungen her, doch diese ergaben sich nicht aus der Namenskonstruktion, sondern mussten explizit definiert werden.
Mit der Einführung von Active Directory änderte sich dieses Bild grundlegend. Die Umstellung auf TCP/IP als Protokollbasis und die Verwendung von DNS-Namensräumen zur Domänenbenennung erlaubten es erstmals, logische Zusammenhänge direkt in der Namensgebung zu reflektieren.
Vom Namen zur Struktur
Nehmen wir das Beispiel der NT-Domänen FIRMA, SUB und CORP. Benennen wir diese im Active Directory stattdessen als:
- firma.de
- sub.firma.de
- corp.com
…so ergibt sich plötzlich eine logisch abbildbare Struktur: Die Domänen firma.de und sub.firma.de teilen sich denselben DNS-Namensstamm und lassen sich zu einer gemeinsamen Domänenstruktur (Tree) zusammenfassen. Diese Beziehung ist nicht nachträglich entstanden, sondern wurde bereits bei der Erstellung der übergeordneten Domäne firma.de konzeptionell angelegt.
Wichtig ist: Die Domäne sub.firma.de konnte nur im Bewusstsein der vorher existierenden Domäne firma.de erstellt werden. Das bedeutet: Die Struktur wächst von oben nach unten, nicht durch späteren Zusammenschluss. Man spricht in diesem Fall von einer hierarchischen Domänenstruktur, deren Stammdomäne firma.de ist.
Die Domäne corp.com hingegen passt nicht in den DNS-Namensraum firma.de – sie gehört zu einem eigenen Namensraum und kann daher nicht in dieselbe Domänenstruktur integriert werden. Wird corp.com dennoch im Kontext der bereits bestehenden Struktur bereitgestellt, entsteht eine neue, separate Domänenstruktur. Auch hier ist die Reihenfolge bedeutsam, in der der einzelnen Domänenstrukturen zur Gesamtstruktur hinzugefügt werden. Der Name der ersten Domänenstruktur definiert gleichsam auch den Namen der Gesamtstruktur.
In diesem Kontext ergibt sich eine Gesamtstruktur mit dem Namen ‚firma.de‘, die aus zwei Domänenstrukturen besteht:
- Die Domänenstruktur firma.de, bestehend aus der Stammdomäne firma.de und der untergeordneten Domäne sub.firma.de
- Die eigenständige Domänenstruktur corp.com, die ausschließlich aus ihrer Stammdomäne corp.com besteht
Entscheidend dabei: Die erste erstellte Domäne definiert nicht nur die Domänenstruktur, sondern auch den Namen der Gesamtstruktur. Die Architektur wächst sukzessive, von oben nach unten, nicht durch nachträgliche Verknüpfung.
Die Rolle der Gesamtstruktur (Forest)
Was in der Praxis oft als Forest bezeichnet wird, ist technisch betrachtet der Zusammenschluss mehrerer Domänenstrukturen, die ein gemeinsames Schema und einen globalen Katalog (Global Catalog, GC) teilen. Die erste erstellte Domäne definiert dabei nicht nur ihre eigene Domänenstruktur, sondern auch den Namen und Ursprung der Gesamtstruktur.
Die Installation des ersten Domänencontrollers legt also fest:
- die erste Domäne
- die zugehörige Domänenstruktur (Tree)
- und die Gesamtstruktur (Forest)
Alles, was danach folgt, ist Erweiterung:
- Weitere Domänencontroller erweitern die Domäne
- Weitere Domänen erweitern die Domänenstruktur
- Weitere Domänenstrukturen erweitern die Gesamtstruktur
Zusammengefasst:
Begriff | Bedeutung |
Domäne | Administrative Sicherheitseinheit mit eigener Benutzerverwaltung |
Domänenstruktur (Tree) | Hierarchische Sammlung von Domänen mit gemeinsamem DNS-Namensraum |
Gesamtstruktur (Forest) | Sammlung mehrerer Domänenstrukturen mit gemeinsamem Schema und GC |
Standorte und Replikation – Trennung von Logik und Physis
Während Active Directory auf Domänen-, Domänenstruktur- und Gesamtstrukturebene eine logische Ordnung der Identitäten und Ressourcen bietet, sieht die Realität in Netzwerken oft anders aus: Es gibt physische Standorte, getrennte IP-Subnetze und unterschiedliche Bandbreiten – Faktoren, die in der reinen logischen Struktur nicht abgebildet werden können.
Früher: Logik oder Physis – ein Kompromiss
In der NT-Domänenwelt existierte keine Trennung zwischen logischer und physischer Ordnung. Wer zwei geografisch getrennte Standorte hatte, stand oft vor einem Dilemma:
- Eine gemeinsame Domäne wäre organisatorisch sinnvoll – aber die Netzwerkverbindung war zu instabil oder langsam.
- Zwei Domänen hätten die Kommunikation entkoppelt – aber bedeuteten doppelten Verwaltungsaufwand und komplexe Vertrauensstellungen.
Viele Administrator:innen entschieden sich notgedrungen für mehrere NT-Domänen, obwohl sie fachlich nicht erforderlich gewesen wären. Die Domänenstruktur wurde also aus Netzwerktopologie-Gründen aufgeweicht, was zu Inkonsistenz und Mehraufwand führte.
Heute: Logik und Physis – mit Active Directory Standorten
Mit Active Directory wurde dieses Problem auf elegante Weise gelöst: Durch die Einführung von Standorten (Sites) lassen sich physische Netzwerkaspekte entkoppelt von der logischen AD-Struktur modellieren.
Ein Standort in Active Directory repräsentiert ein oder mehrere IP-Subnetze, die typischerweise einem physischen Standort zugeordnet sind (z.B. Rechenzentrum, Dortmund oder NRW). Durch diese Abbildung ergeben sich zahlreiche Vorteile:
- Abbildung realer Netzwerkverhältnisse innerhalb der logischen AD-Welt
- Definition von Standortverknüpfungen (Site Links) zur gezielten Steuerung von Datenflüssen
- Domänencontroller-Auswahl durch den Client basierend auf Standortzugehörigkeit
- Replikationssteuerung zwischen Standorten: Zeitpläne, bevorzugte Pfade, Bandbreitenoptimierung
Das bedeutet konkret: Es ist möglich – und ausdrücklich empfehlenswert – eine einzelne Domäne über mehrere Standorte hinweg zu betreiben, ohne die logische Struktur aufzugeben. Die Kommunikation zwischen den Domänencontrollern lässt sich dabei präzise steuern – über Zeitpläne, Standortverknüpfungen und Replikationskosten.
Und: Diese Architektur hat bedeutende Auswirkungen auf die Gesamtkomplexität.
Wer auf separate Domänen verzichtet, reduziert auch die Anzahl der Domänencontroller, Trusts und Verwaltungsgrenzen, die bereitgestellt, abgesichert und langfristig gepflegt werden müssen.
Replikation? Kommt noch.
Wie genau die Replikation zwischen Domänencontrollern im Active Directory funktioniert, wie der Knowledge Consistency Checker (KCC) arbeitet und wie man Standorttopologien optimiert, wird in einem separaten Abschnitt dieses Beitrags vertieft behandelt.
Für den Moment genügt: Standorte sind die Brücke zwischen physikalischem Netzwerk und logischer Verzeichnisstruktur – sie machen Active Directory skalierbar, effizient und netzwerkfreundlich.
Delegierung und Rollentrennung – Verantwortung gezielt steuern
Eine der großen Stärken von Active Directory liegt in der Fähigkeit, Verwaltungsaufgaben gezielt zu delegieren, ohne gleich die komplette Kontrolle abzugeben. Gerade in mittelgroßen bis großen Umgebungen ist das ein unverzichtbares Werkzeug, um skalierbare, sichere und wartbare Strukturen zu etablieren.
Trotzdem wird diese Möglichkeit in vielen Organisationen nur unzureichend genutzt – entweder aus Unsicherheit, wegen fehlender Konzepte oder weil „es ja irgendwie läuft“.
Warum Delegierung wichtig ist
Mit wachsender Größe einer IT-Umgebung steigt auch der Bedarf, bestimmte Aufgaben nicht zentral, sondern dezentral ausführen zu lassen – etwa:
- Aufnahme neuer Benutzer:innen durch die Personalabteilung
- Passwortzurücksetzung durch den Helpdesk
- Pflege von Gruppenmitgliedschaften durch Fachbereiche
- Verwaltung von Computerkonten durch lokale IT
Ohne Delegation muss all das durch die Domänen-Administration oder zentrale Administration erfolgen – was nicht nur ineffizient ist, sondern auch ein Sicherheitsrisiko darstellt.
Die Werkzeuge der Delegierung
Active Directory erlaubt eine präzise Steuerung von Berechtigungen auf OU-Ebene:
- Über den Delegation of Control Wizard in der Schnittstelle Active Directory Benutzer und Computer lassen sich typisierte Aufgaben delegieren
- Alternativ können über die erweiterten Sicherheitseinstellungen individuelle ACLs auf Objekte oder Container gesetzt werden
- Die Vererbung von Berechtigungen ermöglicht granulare Zugriffskontrolle mit minimalem Aufwand
Ein gutes Delegierungsmodell ist:
- funktional getrennt (z.B. Benutzerverwaltung ≠ Gruppensteuerung)
- rollenbasiert (nicht personenbezogen, sondern an Funktion gekoppelt)
- nachvollziehbar dokumentiert (wer darf was, wo, warum?)
Typische Fehler in der Praxis
- Alles oder nichts: Helpdesk-Mitarbeitende erhalten domänenadministrative Rechte, „weil es einfacher ist“.
- Keine Trennung von Benutzer:innen und Administration: Administrator:innen nutzen produktive Benutzerkonten zum Arbeiten.
- Fehlende Kontrolle über Delegationen: Einmal eingerichtete Berechtigungen werden nie wieder überprüft.
- OU-Design folgt keiner Rollentrennung: Wenn alle Benutzer:innen in einer OU liegen, ist selektive Rechtevergabe kaum möglich.
Rollentrennung auch in der Administration
Gute Delegierung ist ohne Rollentrennung nicht denkbar. Dazu gehören:
- Trennung von produktiver und administrativer Identität (z.B. Benutzerkonto vs. Administratives Konto)
- Aufteilung der Verwaltungsaufgaben (z.B. GPO-Verwaltung ≠ Benutzerverwaltung ≠ Serververwaltung)
- Einsatz von Schutzmechanismen wie Protected Users, Admin Tiering und PAW (Privileged Access Workstations)
Diese Grundprinzipien sind nicht nur Best Practices – sie werden zunehmend von Sicherheitsstandards und Compliance-Vorgaben gefordert (z.B. BSI IT-Grundschutz, NIS2, ISO 27001).
Administrative Werkzeuge – von der MMC zur webbasierten Steuerung
Mit dem Wachstum von Active Directory wuchs auch der Werkzeugkasten, um es zu verwalten. Die administrativen Schnittstellen haben sich dabei stetig weiterentwickelt – von klassischen MMC-Snap-Ins bis hin zu modernen, webbasierten Verwaltungsportalen. Ein chronologischer Überblick zeigt, wie sich Funktionalität und Bedienbarkeit verbessert haben:
Ab Windows 2000
- Active Directory Benutzer und Computer (dsa.msc)
Zentrale MMC-Konsole für Benutzer-, Gruppen- und Objektverwaltung. - Active Directory Standorte und Dienste
Verwaltung von Standorten, Subnetzen und Replikationstopologien. - Active Directory Domänen und Vertrauensstellungen
Einrichtung und Pflege von Domänenbeziehungen und Trusts.
Diese Werkzeuge bildeten das Grundgerüst der AD-Verwaltung – funktional, aber teilweise sperrig in der Bedienung.
Ab Windows Server 2003
- Gruppenrichtlinienverwaltungs-Konsole (GPMC)
Endlich: eine zentrale Oberfläche zur Erstellung, Verknüpfung und Verwaltung von GPOs. Die vorherige GPO-Verwaltung unter Windows 2000 – eingebettet in Active Directory Benutzer und Computer – war fragmentiert und wenig intuitiv.
Ab Windows Server 2008 R2
- Windows PowerShell mit Active Directory Modul
Mächtige Kommandozeilensteuerung für Automatisierung, Massenoperationen und Scripting. Zuvor standen nur eingeschränkte Kommandozeilentools (z.B. dsadd, dsmod) an der Eingabeaufforderung zur Verfügung.
Ab Windows Server 2012
- Active Directory Verwaltungscenter (ADAC)
GUI mit modernerem Design, verbesserter Aufgabensteuerung, dynamischen Filtern und Integration von Granularen Kennwortrichtlinien sowie der Active Directory Papierkorb.
Modern
- Windows Admin Center (WAC)
Webbasierte Verwaltungsoberfläche für hybride Infrastrukturen.
Unterstützt zentrale Verwaltung von AD-Diensten, DNS, DHCP, Dateiservern und Azure-Anbindung. Ideal für Cloud-nahe Szenarien und rollenbasierte Administration.
Erweiterte Werkzeuge
- ADSI Edit
Direkter Zugriff auf das AD-Schema – mächtig, aber risikobehaftet. - LDP.exe
LDAP-Explorer zur Analyse und Fehlerdiagnose auf Protokollebene. - Repadmin, DCDiag, Netdom
CLI-Werkzeuge zur Replikationsanalyse, Diagnose und Domänensteuerung.
Ein Werkzeugkasten, kein Ersatzkoffer
Trotz aller Fortschritte und Modernisierungen gilt: Kein einzelnes Tool deckt heute alle Verwaltungsszenarien vollständig ab. Viele Funktionen sind nur über bestimmte Oberflächen zugänglich – etwa:
- erweiterte Gruppenrichtlinienverknüpfungen in der GPMC
- hybride Authentifizierungsflüsse via Entra ID Connect oder Entra Admin Center
- moderne Geräteverwaltung über das Intune-Portal
- Schemaänderungen über ADSI Edit
In der Praxis bedeutet das:
Der administrative Alltag ist ein Mix. Zwischen MMC und Webportal, zwischen PowerShell und GUI, zwischen On-Prem und Cloud – und oft auch zwischen alt und neu.

Exkurs: Domänencontroller unterhalten sich – Active Directory Replikation verstehen
In einer Active Directory-Umgebung arbeiten mehrere Domänencontroller (DCs) parallel – jeder von ihnen hält eine vollständige, schreibbare Kopie des Verzeichnisses. Damit Änderungen überall gültig sind, müssen diese Controller ständig Informationen austauschen – ein Vorgang, der als Replikation bezeichnet wird.
Active Directory verwendet ein Multi-Master-Replikationsmodell mit automatischer Konfliktbehandlung.
Standortinterne vs. standortübergreifende Replikation
Die erste Unterscheidung betrifft die physikalische Lage der DCs:
- Standortinterne Replikation
- Gilt für DCs im selben AD-Standort (z.B. Rechenzentrum Dortmund)
- Repliziert fast in Echtzeit: Änderungen an einem DC werden typischerweise innerhalb von Sekunden an andere DCs im gleichen Standort übertragen
- Standardverzögerung: 15 Sekunden nach Änderung, dann Weitergabe im 3-Sekunden-Takt
- Standortübergreifende Replikation
- Gilt zwischen unterschiedlichen AD-Standorten, die typischerweise über WAN-Strecken verbunden sind (z.B. Dortmund – Köln)
- Replikation erfolgt planbasiert (Standardintervall: 180 Minuten – frei konfigurierbar über Standortverknüpfungen)
- Ziel ist die Minimierung von Bandbreitenbelastung, insbesondere in Außenstellen oder bei VPN-Strecken
Mit Standortverknüpfungen, Kostenparametern und Replikationsplänen lassen sich standortübergreifende Replikationsvorgänge präzise steuern – z.B. mit Nachtschaltung bei langsamen Verbindungen.
Dringende und nicht-dringende Replikation – nicht jede Änderung ist gleich kritisch
Active Directory unterscheidet bei der Replikation von Verzeichnisdaten zwischen nicht-dringenden und dringenden Änderungen. Ziel ist es, Replikationslast zu minimieren, ohne dabei die Verfügbarkeit sicherheitsrelevanter Informationen zu gefährden.
- Nicht-dringende Änderungen (Non-Urgent Replication)
- z.B. Änderung von Gruppenmitgliedschaften, Objektverschiebungen
- werden nach einem konfigurierten Zeitplan repliziert
- Dringende Änderungen (Urgent Replication)
- z.B. Kontosperrungen, Passwortänderungen
- werden sofort zwischen DCs repliziert, sogar über Standortgrenzen hinweg
- nutzen spezielle Trigger und bevorzugte Replikationspfade
So erreicht AD einen sinnvollen Kompromiss zwischen Aktualität und Lastvermeidung.
Push- und Pull-Replikation – Wer ruft?
Ein oft missverstandener Aspekt ist die Kommunikationsrichtung innerhalb der Replikation:
- Pull-Replikation
- Der empfangende DC fordert aktiv Änderungen von seinen Replikationspartnern an
- Standardverfahren in Active Directory (DC fragt: „Hast Du etwas Neues?“)
- Ermöglicht präzise Kontrolle und Ressourcenoptimierung
- Push-Replikation (implizit)
- Änderungen werden nicht direkt gesendet, sondern es erfolgt ein Replikationstrigger (z.B. dringende Änderung löst unmittelbaren Pull beim Partner aus)
- Kein permanentes Push-Modell wie in klassischen Messaging-Systemen – AD bleibt Pull-orientiert mit Push-Auslösung
Die Kombination aus zeitgesteuerter Pull-Logik und Push-Triggern bei dringenden Ereignissen ist einer der Gründe, warum AD trotz verteilter Struktur relativ reaktionsschnell und konsistent ist.
SYSVOL-Replikation – die zweite Datenebene
Neben den eigentlichen Verzeichnisobjekten im AD muss auch das SYSVOL-Verzeichnis repliziert werden. Es enthält:
- GPO-Konfigurationsdateien
- Logon-Skripte
- sicherheitsrelevante Daten wie Starter-GPOs
Die Geschichte:
- FRS (File Replication Service):
- Veraltet, fehleranfällig, ineffizient
- War Standard bis Windows Server 2008
- DFS-R (Distributed File System Replication):
- Seit Windows Server 2008 (R2) empfohlen
- Komprimiert Daten, unterstützt Bandbreitensteuerung
- Robust gegenüber Netzwerkfehlern und Dateiänderungskonflikten
- Pflicht ab Windows Server 2019
Migrationspflicht: Wer heute noch FRS nutzt, muss auf DFS-R umsteigen. Microsoft bietet hierfür eine Migrationsanleitung und Tools wie dfsrmig.exe.
Zusammengefasst
Active Directory-Replikation ist:
- standortsensibel (unterscheidet lokale und WAN-Verbindungen)
- prioritätenbasiert (dringende vs. reguläre Änderungen)
- kontrolliert und skalierbar (über Site-Design und Zeitpläne)
- sowohl pull- als auch triggerbasiert (kombiniertes Modell)
- zweigeteilt (NTDS-Replikation und SYSVOL-Replikation)
Wer Replikation versteht, kann Fehlverhalten analysieren, Performance optimieren und Standorte gezielt entlasten – ein Muss für alle Administrator:innen mit AD-Verantwortung.
DNS und Active Directory – Warum Namensauflösung das Fundament ist
Active Directory ist kein Insel-System – es ist ein verzeichnisbasierter Dienst, der vollständig auf DNS-Namensauflösung angewiesen ist. Ohne korrekt konfiguriertes DNS kann kein Client einen Domänencontroller finden, keine Anmeldung erfolgen und keine Replikation funktionieren. DNS ist im Active Directory also nicht optional, sondern Voraussetzung.
Der Grundsatz: Kein AD ohne DNS
Jede AD-Domäne ist zugleich ein DNS-Namensraum. Wird z.B. die Domäne firma.de eingerichtet, so entstehen entsprechende DNS-Zonen wie:
- firma.de (Primärzone für Ressourcen und Hostnamen)
- _msdcs.firma.de (Service-Locator-Zone mit SRV-Einträgen)
Wenn ein Client aus der Domäne sub.firma.de einen Domänencontroller sucht, stellt er DNS-Anfragen wie:
_ldap._tcp.dc._msdcs.sub.firma.de → Antwort: DC03.sub.firma.de
Fehlen diese SRV-Records, weiß der Client schlicht nicht, wohin er sich wenden muss – weder für Authentifizierung noch für Gruppenrichtlinien oder Replikation.
Interner DNS auf Domänencontrollern – keine Kür, sondern Pflicht
Ein häufiger Fehler in Praxisumgebungen: Clients oder sogar Domänencontroller verwenden externe DNS-Server wie 8.8.8.8 oder 1.1.1.1 – in der Annahme, dies würde „schneller funktionieren“. In Wirklichkeit unterbrechen solche Konstellationen die interne Namensauflösung. Ergebnis: Die Domäne firma.de funktioniert nicht zuverlässig, weil DNS-Abfragen nicht korrekt aufgelöst werden können.
Microsoft empfiehlt daher:
- Alle Clients verweisen ausschließlich auf interne DNS-Server
- Die DCs tragen sich selbst als DNS-Server ein (z.B. 127.0.0.1)
- Die Zonen (z.B. firma.de, sub.firma.de) werden AD-integriert repliziert
- Jeder Domänencontroller betreibt gleichzeitig einen DNS-Server
- Weiterleitungen ins Internet erfolgen gezielt über DNS-Forwarder
Nur so können Clients aus corp.com Domänencontroller in firma.de oder sub.firma.de finden – sofern entsprechende Trusts und Delegierungen eingerichtet sind.
Besonderheiten in Domänenstrukturen
Angenommen, in einer AD-Umgebung existieren:
- firma.de als Stammdomäne
- sub.firma.de als untergeordnete Domäne
- corp.com als eigenständige Domänenstruktur in einem separaten Forest
Dann müssen DNS-Zonen korrekt gepflegt und ggf. Zonendelegierungen zwischen firma.de und sub.firma.de eingerichtet sein. Für die Kommunikation zwischen corp.com und firma.de ist zusätzlich Zonenweiterleitung oder Bedingte Weiterleitung nötig – abhängig vom Vertrauensmodell zwischen den Forests.
Fazit
Active Directory ohne korrekt konfiguriertes DNS ist wie ein GPS-System ohne Satellitenempfang: Die Technik ist da, aber sie weiß nicht, wohin sie soll.
Deshalb gilt: Wer eine Domäne erfolgreich betreiben möchte, sollte DNS nicht als Nebensache betrachten, sondern als das, was es im AD ist: Die Grundlage von allem.
Die Cloud kommt – Von Azure AD zu Entra ID
Mit der zunehmenden Verlagerung von Anwendungen und Infrastruktur in die Cloud veränderte sich auch die Art und Weise, wie Identitäten verwaltet werden. Microsoft erkannte früh, dass die klassische Domänenstruktur an ihre Grenzen stößt – insbesondere bei mobilen Nutzer:innen, standortunabhängigen Diensten und externen Kommunikationsverbindungen.
Der Ursprung: Business Productivity Online Suite (BPOS)
Bevor Microsoft 2011 Office 365 einführte, bot es ab 2008 mit der Business Productivity Online Suite (BPOS) erstmals zentrale Standarddienste aus der Cloud an:
- Exchange Online
- SharePoint Online
- Office Communications Online (später Lync, heute Microsoft Teams)
- Live Meeting
Die Identitäten wurden in einem separaten, Microsoft-gehosteten Verzeichnisdienst verwaltet – nicht im lokalen Active Directory. Schnell wurde klar: Es braucht einen eigenen, Cloud-nativen Identitätsdienst, der unabhängig von On-Premise-Strukturen funktioniert, aber auch mit ihnen verbunden werden kann.
Aus diesem Ansatz entstand Azure Active Directory (Azure AD) – später umbenannt in Microsoft Entra ID.
Architekturunterschiede: Kein AD in der Cloud
Ein häufiges Missverständnis: Azure AD sei einfach Active Directory aus der Cloud. Tatsächlich sind die technischen Grundlagen fundamental verschieden:
Merkmal | Active Directory (AD) | Entra ID (vormals Azure AD) |
Protokollbasis | LDAP, Kerberos | OAuth 2.0, OpenID Connect, SAML |
Startjahr | 1999/2000 (Windows 2000 Server) |
2010 (öffentlich verfügbar) |
Steuerung von Clients | GPOs, Login Scripts, Logon Server | Conditional Access, Intune, MDM |
Technologie-Ursprung | NT-Entwicklung / LDAP/Kerberos | BPOS / Webtechnologien (OAuth/SAML) |
Verzeichnisstruktur | Hierarchisch mit OUs und Gruppen | Flach, attributgesteuert |
Zielarchitektur | Unternehmensnetzwerke, On-Prem | Cloud-native, global, föderiert |
Azure AD (heute Entra ID) war also von Anfang an ein anderes System, mit anderen Anforderungen und Funktionen – ein Dienst, der aus Cloudszenarien heraus konzipiert wurde, nicht aus der klassischen Windows-Serverwelt heraus.
Funktionen und Fokus von Entra ID
Entra ID ist heute der zentrale Identitäts-Backbone für Microsoft 365 und zahlreiche Drittanbieter-Clouds. Im Leistungsumfang:
- Conditional Access und Risk-Based Policies
- Multi-Faktor-Authentifizierung (MFA) und passwortlose Anmeldung
- Plattformunabhängigkeit (auch für macOS, Android, iOS, Linux)
- Single Sign-On (SSO) für tausende SaaS-Apps
Aber: Entra ID ersetzt kein klassisches AD – zumindest nicht in traditionellen Netzwerken. Es ergänzt die lokale Welt – und übernimmt dort die Aufgaben, wo klassische Mechanismen (z.B. GPOs oder LDAP) nicht mehr greifen.
Hinweis: Viele der erweiterten Sicherheits- und Governance-Funktionen (z.B. Conditional Access, Identity Protection, Access Reviews) sind lizenzpflichtig und erst ab den Lizenzstufen P1 oder P2 verfügbar.
Hybride Szenarien – Wenn On-Premise und Cloud kooperieren
Die Realität vieler Unternehmen ist heute nicht entweder oder, sondern sowohl als auch: Active Directory bleibt für viele interne Prozesse unverzichtbar – etwa für lokale File- und Print-Services, klassische Anwendungen oder Geräteanmeldung. Gleichzeitig werden Cloud-Dienste wie Microsoft 365, Azure-basierte Applikationen oder Webdienste von Drittanbietern genutzt. Die Identität der Benutzer:innen muss deshalb übergreifend funktionieren.
Entra ID Connect – die Brücke zwischen zwei Welten
Microsoft stellt mit Entra ID Connect (vormals Azure AD Connect) ein zentrales Werkzeug bereit, um lokale Identitäten aus dem Active Directory mit der Cloud zu synchronisieren. Typischerweise werden folgende Elemente übertragen:
- Benutzer
- Gruppen
- Kontakte
- Attribute wie Telefonnummer, Position, Abteilung
- Optional: Passwort-Hashes zur Cloud-Anmeldung
Der lokale AD-Benutzer ‚Max Mustermann‘ wird damit im Entra ID-Mandanten sichtbar – mit einer synchronisierten Cloud-Identität.
Hinweis: Standardmäßig findet keine bidirektionale Synchronisation statt.
Änderungen in der Cloud wirken nicht zurück ins lokale Active Directory.
Authentifizierungsmodelle in hybriden Szenarien
Entra ID Connect ist nur ein Baustein – entscheidend ist, wo und wie sich Benutzer:innen authentifizieren:
Modell | Beschreibung |
Federation (AD FS) |
Anfragen werden an AD FS weitergeleitet, z.B. via SAML; benötigt eigene Serverinfrastruktur |
Pass-through Authentication (PTA) | Benutzer meldet sich in der Cloud an, Authentifizierung erfolgt On-Premise |
Password Hash Sync (PHS) |
Lokale Passwörter (als Hash) werden sicher in die Cloud synchronisiert |
PHS ist in der Praxis am einfachsten umzusetzen und genügt in vielen Fällen – auch mit MFA und Conditional Access kombinierbar.
PTA eignet sich für Unternehmen, die Passwörter nicht in die Cloud übertragen wollen.
AD FS gilt heute als Legacy-Ansatz und wird zunehmend abgelöst – v.a. durch Conditional Access Policies und moderne Authentifizierungsmethoden.
Herausforderungen in hybriden Umgebungen
Hybride Modelle bieten Flexibilität, erfordern aber klare Architekturüberlegungen:
- Benutzer:innen erwarten SSO – unabhängig vom System, Gerät oder Standort
- Administrationsgrenzen müssen neu gedacht werden – z.B. wer verwaltet welche Gruppe: On-Prem oder Cloud?
- Schatten-IT kann entstehen, wenn Benutzer:innen cloudbasierte Self-Service-Portale nutzen, ohne Rückbindung ans AD
- Sicherheitskonzepte müssen identitätsbasiert gedacht werden (z.B. Zero Trust)
Microsoft spricht in diesem Zusammenhang oft vom Identitätsparadoxon:
Je mehr Kontrolle man durch zentrale Identitäten gewinnt, desto größer wird die Herausforderung, diese sicher, konsistent und nachvollziehbar über Systemgrenzen hinweg zu verwalten.
Cloud Sync – die schlanke Alternative?
Neben Entra ID Connect bietet Microsoft mit Entra Cloud Sync eine cloudbasierte Synchronisationslösung an, die insbesondere für moderne, leichtgewichtige oder mehrere Gesamtstrukturen umfassende Szenarien geeignet ist. Cloud Sync benötigt keine lokale SQL-Datenbank und wird über Microsoft automatisiert verwaltet. Microsoft empfiehlt Cloud Sync vor allem dann, wenn keine komplexen Writeback-Funktionen (z.B. Passwortzurückschreibung) oder Exchange-Hybrid-Konfigurationen erforderlich sind.
Cloud Sync nutzt einen Entra ID Provisioning Agent, der im Gegensatz zu Entra ID Connect leichtgewichtig ist und nicht auf eine SQL Server-Instanz oder umfangreiche lokale Infrastruktur angewiesen ist. Der Agent wird auf einem beliebigen Server (auch Domain Controller) installiert und kommuniziert ausschließlich outbound mit der Cloud.
Entra ID Connect oder Cloud Sync? – Microsofts Strategie für hybride Identitäten
Während Entra ID Connect das etablierte Werkzeug für die Synchronisation von lokalen Identitäten mit der Cloud ist, stellt Microsoft mit Entra Cloud Sync eine modernere, cloudbasierte Alternative zur Verfügung. Beide Lösungen ermöglichen die Synchronisierung von Benutzer- und Gruppenobjekten, als auch von Attributen, unterscheiden sich jedoch deutlich im Architekturansatz und den Einsatzszenarien.
Unterschiede auf einen Blick
Merkmal |
Entra ID Connect |
Entra Cloud Sync |
Architektur |
Schwergewichtig, |
Leichtgewichtig, |
Gruppenmitgliedschaften |
Unterstützt verschachtelte Gruppen |
Aktuell keine Gruppenverschachtelung |
Mehrere Forests |
Komplex, mit Trusts |
Nativ möglich ohne Trusts |
Pass-Through Auth (PTA) |
Ja |
Ja |
Password Hash Sync (PHS) |
Ja |
Ja |
Wartung / Updates |
Manuell / bedingt Automatisch |
Automatisch über Cloud |
Hinweis: Cloud Sync unterstützt derzeit keine Writeback-Funktionen (z.B. Kennwortrückschreibung), die bei Entra ID Connect mit PHS oder PTA möglich sind.
Microsofts Präferenz – klare Richtung für die Zukunft
Microsoft signalisiert deutlich, dass Cloud Sync die langfristige strategische Richtung ist – insbesondere für neue Umgebungen, die sich cloudzentriert entwickeln. Für komplexe bestehende Strukturen mit Kennwort-Writeback oder hybriden Exchange-Umgebungen bleibt Entra ID Connect vorerst unverzichtbar. In vielen neuen Szenarien empfiehlt Microsoft jedoch:
- Cloud Sync, wenn keine Writeback-Funktionalität benötigt wird
- Entra ID Connect, wenn Exchange-Hybrid oder spezifische Legacy-Kompatibilität erforderlich ist

Exkurs: Von der Verbots- zur Ermöglichungsadministration – Warum klassische Kontrollmuster heute nicht mehr reichen
In den frühen Jahren der Netzwerkadministration galten IT-Systeme als starre, zentral kontrollierte Inseln. Die grundlegende Idee war klar: Benutzer:innen dürfen nur das tun, was sie tun sollen. Nicht weniger – aber auch nicht mehr.
Dieses Prinzip war lange Zeit durchsetzbar, weil die Umgebung überschaubar war:
- Homogene Hardware (klassische Desktop-PCs im Unternehmen)
- Standardisierte Softwarebereitstellung durch IT-Abteilungen
- Klare Rechtekonzepte, definiert durch GPOs und NTFS
- Eingeschränkter Internetzugang und kaum mobile Geräte
- Benutzer:innen ohne tieferes IT-Verständnis
Die Folge: Die IT-Administration schuf einen Goldenen Pfad – eine vordefinierte, möglichst störungsfreie Benutzererfahrung, an der kaum vorbeigearbeitet werden konnte. Ausnahmen waren eben ‚die Ausnahme‘ – und meist eher unerwünscht.
Das neue Normal: Vielfalt, Mobilität, Erwartungen
Doch diese Zeit ist vorbei. Heute prägen ganz andere Rahmenbedingungen den IT-Alltag:
- Bring Your Own Device (BYOD) und Homeoffice verändern die Gerätestrategie
- Plattformvielfalt ersetzt die Windows-Monokultur – macOS, iOS, Android, Linux
- Cloud-Dienste werden direkt genutzt – oft ohne Zutun der IT-Abteilung
- Generationenwechsel bringt IT-affine Benutzer:innen mit neuen Erwartungen
- Mobilität und Flexibilität sind geschäftliche Erfolgsfaktoren
Benutzer:innen akzeptieren heute nicht mehr, dass die IT das eben so macht. Sie erwarten:
- Schnelle Verfügbarkeit von Tools
- Mitarbeiterzentrierte Arbeitsumgebungen
- Gerätefreiheit und Personalisierung
- Integration ihrer Workflows – nicht Unterbrechung
Die neue Rolle der IT: Möglichmachung mit Verantwortung
Daraus ergibt sich für die Administration ein grundlegender Wandel:
Von der Kontrolle zur Steuerung – von der Einschränkung zur Ermöglichung.
Moderne IT-Teams sind nicht mehr die Gatekeeper, die alles verhindern – sondern die Architekt:innen sicherer, flexibler Arbeitsumgebungen. Die Fragen lauten heute:
- Wie schaffen wir Rahmenbedingungen, in denen Benutzer:innen sicher frei arbeiten können?
- Wie automatisieren wir Sicherheitskontrollen statt sie manuell durchzusetzen?
- Wie bringen wir Compliance und Benutzerfreundlichkeit in Einklang?
- Wie behalten wir Transparenz und Kontrolle, ohne zu gängeln?
Dieser Kulturwandel ist nicht trivial – und scheitert oft weniger an Technik als an Vertrauen und Rollenverständnis.
Doch nur wer bereit ist, sich von der reinen Verbotslogik zu lösen, kann moderne Identitäts- und Gerätemanagementansätze wie Intune, Conditional Access oder Zero Trust sinnvoll einsetzen.
Von GPOs zu Intune – Compliance gestern und heute
Wer in klassischen Windows-Umgebungen aufgewachsen ist, kennt sie: die Gruppenrichtlinienobjekte (Group Policy Objects, GPOs). Über sie lassen sich seit Windows 2000 nahezu alle Aspekte eines Windows-Systems zentral steuern – von Benutzeroberfläche und Softwareinstallation bis zu Sicherheitseinstellungen und Skriptausführung. In On-Premises-Netzen mit Active Directory sind GPOs nach wie vor das zentrale Werkzeug zur Durchsetzung von Compliance- und Konfigurationsvorgaben.
Doch mit der Cloud – und vor allem mit Entra ID – endet der Geltungsbereich klassischer GPOs.
GPOs: Mächtig, aber lokal gebunden
GPOs benötigen:
- eine AD-Domäne zur Anbindung
- Netzwerkverbindung zum Domänencontroller
- ein SYSVOL-Replikationssystem
- klassische Windows-Clients, die GPO-fähig sind
Diese Anforderungen sind in modernen, mobilen und heterogenen Umgebungen oft nicht mehr gegeben. Geräte, die außerhalb des Firmennetzwerks betrieben oder gar nicht domänengebunden sind (z.B. BYOD oder Cloud-Only-Geräte), lassen sich mit GPOs nicht steuern.
Intune & Co – Cloud-native Geräteverwaltung
Mit Microsoft Intune (heute Teil von Microsoft Endpoint Manager) bietet Microsoft eine cloudbasierte Alternative zur GPO-Welt.
Intune ermöglicht:
- App-Verteilung (inkl. Office, Edge, Line-of-Business-Anwendungen)
- Compliance-Regeln in Verbindung mit Conditional Access
- Gerätekonfiguration und -richtlinien (auch für macOS, iOS, Android)
- Reporting und Überwachung von Compliance-Status
- Self-Service-Portale für App-Installationen und Gerätesichtbarkeit
- Sicherheitsrichtlinien (Passwortvorgaben, Verschlüsselung, Updateverhalten)
- Zuweisung von Richtlinien und Anwendungen an Benutzer:innen und Geräte
Intune funktioniert dabei unabhängig von klassischem AD – die Zuweisung erfolgt über Entra ID. Geräte lassen sich dabei:
- registrieren (Entra ID Registered)
- verbinden (Entra ID Joined)
- oder hybrid anbinden (Hybrid Entra ID Joined)
Vorteil: Auch Geräte außerhalb des Netzwerks lassen sich so verwalten – über das Internet, ohne VPN, zentral über das Intune-Portal.
GPO vs. Intune – kein 1:1-Ersatz
Wichtig: Intune ersetzt GPOs nicht vollständig, vor allem nicht in komplexen Umgebungen mit Legacy-Systemen. Aber es bietet moderne Ansätze für:
Bereich | GPO | Intune |
Feingranularität | Sehr detailliert (Registry-Ebene) | Eher Policy-Set-basiert (noch wachsend) |
Gerätebindung | Domänenbeitritt notwendig | Entra ID Join oder Registrierung |
Offlinefähigkeit | Ja (bei AD-Anbindung) | Ja, mit Cloud-Sync beim nächsten Kontakt |
Plattformen | Windows | Windows, macOS, iOS, Android |
Verteilung | SYSVOL + Replikation | Cloud-Push via Endpoint Manager |
Viele Unternehmen setzen heute auf Co-Management – also eine Kombination aus GPOs für lokale Systeme und Intune für mobile oder cloudnative Geräte.

Exkurs: Was blieb, was wurde ersetzt?
Der Übergang von Active Directory zu Entra ID, von GPOs zu Intune und von AD-Join zu Entra ID-Join ist kein radikaler Bruch – aber auch keine reine Fortführung. Vielmehr erleben wir einen Paradigmenwechsel, bei dem bestehende Konzepte entweder transformiert oder bewusst abgelöst wurden.
Dieser Exkurs hilft dabei, den Überblick zu behalten: Was bleibt in hybriden und cloudbasierten Umgebungen wichtig – und was wird ersetzt oder obsolet?
Was blieb – aber in neuer Form
Viele der bekannten Verwaltungs- und Sicherheitskonzepte aus klassischen AD-Umgebungen finden sich auch in der Cloud-Welt wieder – allerdings unter veränderten Rahmenbedingungen, mit neuen Werkzeugen und anderen technischen Grundlagen:
Konzept / Funktion | Bleibt relevant – in neuer Ausprägung |
Benutzerschulung / Awareness | Nach wie vor wichtig – aber ergänzt um Self-Service und Automatisierung |
Gerätebindung | Früher AD-Join, heute Entra ID-Join oder Hybrid-Join |
Gruppenbasierte Rechtevergabe | In AD mit Sicherheitsgruppen, in Entra ID mit Microsoft 365-Gruppen |
Policy Enforcement | Früher GPOs, heute Intune-Richtlinien und Conditional Access |
SSO / Single Sign-On | In AD mit Kerberos, in Entra ID mit OAuth 2.0 / OpenID Connect |
Zentrale Identitätsverwaltung | Weiterhin Kernaufgabe – lokal mit AD, in der Cloud mit Entra ID |
Diese Funktionen stehen also nicht zur Disposition – sie wandeln sich, bleiben aber im Kern für IT-Sicherheit, Compliance und Automatisierung entscheidend.
Was sich fundamental verändert hat
Andere Funktionen und Abläufe wurden durch grundlegend neue Ansätze ersetzt – insbesondere dort, wo Mobilität, Plattformvielfalt oder cloudbasierte Dienste im Vordergrund stehen:
Früher | Heute |
Login-Skripte & Netzlaufwerke | OneDrive, SharePoint Online, Cloud-Mapping via Intune / MEM |
NTLM / Kerberos | Tokenbasierte Authentifizierung in der Cloud |
Passwortorientierte Anmeldung | MFA, passwortlose Authentifizierung (z.B. FIDO2, Authenticator-App) |
Softwareverteilung per GPO | App Deployment via Intune, Winget, Store for Business |
UserProfile-Roaming / Folder Redirection | OneDrive Known Folder Move, FSLogix in VDI |
Zentrale Datei- und Druckserver | M365, Universal Print, SharePoint Online |
Diese Änderungen betreffen nicht nur Technik, sondern auch Benutzererfahrung und Erwartungshaltung – insbesondere im Zusammenspiel mit modernen Arbeitsplätzen und verteilten Teams.
Was (mittelfristig) verschwindet
Einige Technologien sind inzwischen veraltet oder durch moderne Alternativen abgelöst. Sie sollten nur noch in Ausnahmefällen eingesetzt – oder gezielt ausgemustert werden:
Wird zunehmend ersetzt durch | Grund für Ablösung |
AD FS / Federation Services | Conditional Access, pass-through authentication (PTA) |
Altlasten wie logon.bat, GPO Scripts | Moderne Automatisierung (PowerShell, Intune, Endpoint Scripts) |
File Replication Service (FRS) | DFS-R (Pflicht ab Windows Server 2019) |
NetBIOS-Namensauflösung | DNS, global erreichbare Dienste |
Solche Komponenten gehören zur technischen Altlast vieler AD-Umgebungen – sie erfordern heute aktives Lifecycle-Management, um Sicherheits- und Stabilitätsrisiken zu minimieren.
Fazit
Viele Konzepte der Windows-Welt leben in transformierter Form weiter – doch der Kontext, in dem sie eingesetzt werden, ist ein völlig anderer. Wer heute Infrastruktur verantwortet, muss nicht alles verwerfen, aber vieles neu denken. Die Herausforderung liegt nicht im Wechsel von Tools – sondern im Verständnis der dahinterliegenden Verwaltungs- und Sicherheitsphilosophie.
Wohin geht die Reise? Microsofts Identitätsstrategie im Wandel
Active Directory ist seit über zwei Jahrzehnten ein Fundament der IT-Infrastruktur – und wird es in vielen Organisationen auch noch einige Jahre bleiben. Doch Microsoft hat den strategischen Kurs längst angepasst: Cloud-First, Identität als Sicherheitsanker und automatisiertes Policy-Management bilden die neuen Leitlinien.
Wer den Wandel gestalten möchte, sollte die Richtung verstehen, in die Microsoft denkt – und wie sich lokale und Cloud-basierte Systeme dabei ergänzen oder ablösen.
On-Premise lebt – aber mit verändertem Fokus
Microsoft hat sich nie explizit von Active Directory verabschiedet – im Gegenteil: Domänencontroller, DNS und DHCP sind nach wie vor integraler Bestandteil vieler Netzwerke. Doch der Fokus liegt zunehmend auf hybrider Nutzbarkeit und Managementfähigkeit aus der Cloud.
Mit dem Erscheinen von Windows Server 2025 unterstreicht Microsoft, dass On-Premise-Komponenten auch weiterhin eine (zeitlich begrenzte) strategische Relevanz besitzen. Laut offizieller Lifecycle-Information gelten folgende Zeiträume:
- Mainstream Support bis Mai 2031
- Extended Support bis Mai 2036
Damit ist klar: Klassische AD-Infrastrukturen können – bei technischer Pflege – mindestens bis 2036 weiterbetrieben werden. Unternehmen mit Langfristplanung erhalten ein stabiles Zeitfenster, um Hybridstrategien zu etablieren oder Alternativen zu evaluieren.
Doch ein Warnsignal bleibt: Nicht alle On-Premise-Serverprodukte erhalten klassische Nachfolgeversionen. Microsoft hat stattdessen bei mehreren Produkten ein neues Abo-basiertes Subscription-Modell (SE) eingeführt – darunter:
- Exchange Server Subscription Edition (SE)
- SharePoint Server SE
- Skype for Business Server SE
Diese Servervarianten sind nur noch im Rahmen aktiver Software Assurance oder über spezielle Volumenlizenzprogramme verfügbar und werden in einem kontinuierlichen Update-Modell weiterentwickelt – nicht mehr in klassischen Releasezyklen. Die Lizenzform signalisiert deutlich: On-Prem lebt weiter – aber nur, wenn es kontrolliert, abonniert und aus der Cloud heraus gesteuert wird.
Querverweis: Weitere Details dazu und zur strategischen Ausrichtung dieser Produktlinie finden sich auch in meinem Beitrag:
Exchange Server SE und Skype for Business SE – Microsofts On-Premises-Neustart im Abo-Modell
Windows Admin Center (WAC) – Brücke zwischen Welten
Mit dem Windows Admin Center (WAC) bietet Microsoft ein modernes Werkzeug zur Verwaltung lokaler Serverrollen – browserbasiert, modular und Cloud-integrierbar. Es erlaubt u.a.:
- Einfache Delegation und rollenbasierte Zugriffskonzepte
- Erweiterung über Module, z. für Hyper-V, Storage, Failover Clustering
- Integration von Azure Arc zur Steuerung lokaler Ressourcen über Azure
- Verwaltung von Active Directory, DNS, DHCP, Zertifikaten, Updates u.v.m.
WAC ist damit mehr als nur ein moderner Ersatz für die MMC – es ist der zukünftige Managementhub für hybride Umgebungen, in dem lokale und Cloud-nahe Dienste zunehmend unter einheitlicher Oberfläche zusammenwachsen.
Besonders in Kombination mit Azure Arc wird WAC zum Werkzeug für Arc-aktivierte Server: On-Premises- oder Edge-Systeme lassen sich so aus der Cloud heraus verwalten, patchen, überwachen und in Richtlinien einbinden – ganz wie native Azure-Ressourcen.
Microsoft treibt diese Entwicklung aktiv voran: Das Windows Admin Center ist mittlerweile auch in Azure als gehosteter Dienst verfügbar – und wird dort voraussichtlich weiter ausgebaut.
Die Verwaltung klassischer Windows-Serverinfrastrukturen verlagert sich damit zunehmend in die Cloud – bei Bedarf auch ohne Migration der eigentlichen Systeme.
Strategische Trends im Identitätsmanagement
Microsofts Vision ist klar: Identität ist der neue Perimeter. Daraus ergeben sich mehrere Trends:
- Automation first: Wiederkehrende Prozesse (Zugriffsanfragen, Onboarding, Offboarding) werden automatisiert
- Cloud-native Governance: Rollen, Rechte und Zugriffe werden zentral modelliert und automatisch durchgesetzt
- Passwordless by default: Passwörter gelten als Risikofaktor – ersetzt durch FIDO2, biometrische Verfahren, Authenticator
- Verteilte Identitäten: Föderierte oder externe Benutzer:innen werden als gleichberechtigt behandelt – z.B. via B2B-Konnektivität
- Zero Trust: Kein implizites Vertrauen – jede Verbindung, jedes Gerät, jede Aktion muss überprüfbar und autorisiert sein
Microsoft Entra (als Gesamtkonstrukt von Entra ID, Permissions Management und Verified ID) ist dabei das Identitäts-Framework der Zukunft – offen, modular, API-basiert und Cloud-first.
Die Rolle der Administration von morgen
Die Administration wird sich ebenfalls wandeln:
- Mehr Architektur und Konzept – weniger Konfiguration
- Plattformdenken statt Systemsilos
- Verständnis für Compliance, Datenschutz, regulatorische Anforderungen
- Weg vom Handbetrieb, hin zur Richtliniensteuerung
- Zusammenarbeit mit Security und Governance-Teams
Wer heute in Active Directory fit ist, bringt die besten Voraussetzungen mit – aber sollte den eigenen Werkzeugkoffer um Cloud-Identität, Conditional Access, Intune und Zero Trust-Prinzipien erweitern.
Fazit – Verzeichnisdienste verstehen heißt Identitäten gestalten
Active Directory war – und ist – mehr als nur ein technisches Mittel zur Benutzerverwaltung. Es ist ein architekturprägendes Fundament für Zugriffssteuerung, Rollenverteilung und Infrastrukturdesign. Doch mit der zunehmenden Verlagerung von Diensten in die Cloud hat sich das Spielfeld verändert.
Was früher mit NT-Domänen und logon.bat begann, ist heute ein komplexes Zusammenspiel aus hybriden Identitäten, plattformübergreifenden Richtlinien und automatisierten Zugriffssteuerungen geworden. Dabei steht eines fest:
Identität ist heute der Schlüssel zu allem – zu Ressourcen, zu Sicherheit, zu Zusammenarbeit. Wer Identitäten steuern kann, steuert Zugänge, Risiken und Compliance.
Empfehlungen für die Praxis
Für Administrator:innen bedeutet das:
- Bestehende AD-Strukturen hinterfragen – sind sie logisch, sicher und erweiterbar?
- Cloud-Identität und Entra ID verstehen und nutzen, statt sich auf lokale Konten zu verlassen
- Hybride Szenarien bewusst gestalten, statt sie nur technisch umzusetzen
- On-Premise-Zukunft realistisch planen – inklusive Migration, Co-Management oder Ausstiegsstrategie
- Rollenbasierte Delegation, moderne Richtlinien (Intune), und Zero Trust-Konzepte etablieren
Und zuletzt: Rollenbewusstsein
Wer heute Verzeichnisdienste betreut, ist nicht mehr nur Administrator:in, sondern auch:
- Compliance-Garant:in
- Identitätsarchitekt:in
- Risikomanager:in
- Vermittler:in zwischen Bedürfnissen von Benutzer:innen und Sicherheitszielen des Unternehmens
Diese Verantwortung ist hoch – aber auch eine Chance: Mit fundiertem Wissen, Weitsicht und der richtigen Strategie können wir die Identitäten von heute sicher in die Arbeitswelten von morgen führen.
Denn Verzeichnisdienste zu verwalten heißt längst nicht mehr nur, Konten zu pflegen – es bedeutet, digitale Identität verantwortungsvoll zu gestalten. Zwischen Sicherheit und Benutzerfreundlichkeit, Kontrolle und Vertrauen, Technik und Strategie braucht es Menschen, die nicht nur Rechte vergeben, sondern Verhältnisse verstehen.
Wer die Identität schützt, schützt nicht nur Systeme – sondern auch das Vertrauen in Zusammenarbeit. Und das beginnt bei uns.