Windows Server 2025: Das Storage-Update im Überblick
Mit Windows Server 2025 rückt Microsoft das Thema Storage stärker denn je in den Fokus. Neue Funktionen, optimierte Protokolle und erweiterte Verwaltungsoptionen sollen Administrator:innen helfen, Speicherressourcen effizienter, sicherer und hochverfügbar zu betreiben.
Von der klassischen Datenträgerverwaltung über moderne Speicherpools bis hin zu Storage Spaces Direct (S2D) zeigt die aktuelle Servergeneration, wie flexibel und leistungsfähig eine durchdachte Storage-Architektur sein kann.
Gerade im Vergleich zu Windows Server 2022 bringt die neue Version spürbare Verbesserungen: optimierte ReFS-Performance, erweiterte SMB-Features und ein NVMe-Initiator-Update für S2D sind nur einige der Neuerungen, die Microsoft in den offiziellen Storage-Highlights von Windows Server 2025 vorstellt. Wer lieber visuell einsteigt, findet in dieser kompakten Microsoft-Präsentation einen praxisnahen Überblick über die wichtigsten Änderungen.
Dabei wird deutlich: Storage-Verwaltung ist in Windows Server 2025 längst kein reines On-Premises-Thema mehr. Microsoft verfolgt mit seiner Cloud First-Strategie das Ziel, Verwaltungs- und Überwachungsfunktionen zunehmend auch in die Cloud zu verlagern – etwa über Windows Admin Center und Azure Arc.
So lassen sich lokale Server und Speicherressourcen künftig nahtlos aus dem Azure-Portal heraus steuern.
In diesem Beitrag werfen wir einen praxisorientierten Blick auf die Storage-Technologien unter Windows Server 2025:
- Welche Dateisysteme und Protokolle sind relevant – und welche gehören eher ins Archiv?
- Welche Sicherungs- und Replikationsmechanismen schützen vor Ausfällen?
- Welche Verwaltungstools stehen zur Verfügung?
- Wie lassen sich Speicherpools und Storage Spaces Direct sinnvoll einsetzen und erweitern?
Begleitet wird das Ganze von Exkursen zu Spezialthemen, Best-Practice-Hinweisen und Quellen für alle, die tiefer in die Materie einsteigen wollen.
Verwaltungstools für Storage
Die Verwaltung von Storage in Windows Server 2025 lässt sich auf verschiedene Arten realisieren – von klassischen Bordmitteln über zentrale Verwaltungsoberflächen bis hin zu modernen Web-Tools und Skripting. Je nach Größe der Umgebung, eingesetzten Technologien und Vorlieben der Administrator:innen bietet jedes Werkzeug seine eigenen Stärken und Grenzen.
Datenträgerverwaltung (Disk Management)
Das bekannte Tool Datenträgerverwaltung (diskmgmt.msc) ist seit vielen Windows-Versionen an Bord und bietet grundlegende Funktionen zur Speicherverwaltung. Es eignet sich für schnelle, direkte Änderungen am System und ist auch für Remote-Server nutzbar.
- Initialisierung neuer Datenträger
- Erstellung und Formatierung von Partitionen
- Anpassung von Volume-Größen
- Einbinden virtueller Datenträger
Allerdings stößt die Datenträgerverwaltung schnell an ihre Grenzen, wenn es um moderne Storage-Technologien wie Storage Spaces, Storage Spaces Direct oder SMB over QUIC geht.
Server Manager
Der Server Manager ist seit Windows Server 2008 die zentrale Anlaufstelle für die Rollen- und Featureverwaltung unter Windows Server und enthält auch einige Speicherfunktionen.
Er eignet sich gut für die Verwaltung klassischer Storage Spaces und für grundlegende Dateiserverkonfigurationen. Neuere Funktionen wie Storage Spaces Direct (S2D) oder SMB over QUIC lassen sich hier jedoch nicht einrichten.
Über Assistenten können Administrator:innen zügig Freigaben und Speicherressourcen konfigurieren, darunter:
- Initialisieren, Partitionieren und Formatieren von Volumes
- Erstellen von SMB- oder NFS-Freigaben
- Verwaltung der Dateiserverrolle
- Integration mit Rollen- und Feature-Installation
Microsoft entwickelt den Server Manager nicht mehr aktiv weiter, weshalb er in modernen Szenarien eher als Übergangslösung dient – insbesondere, wenn hybride oder hochverfügbare Storage-Technologien gefragt sind.
Windows Admin Center (WAC)
Das Windows Admin Center ist Microsofts moderner Ansatz zur webbasierten Verwaltung von Windows Server. Es vereint grafische Bedienung mit Hybrid-Cloud-Integration und ist besonders für Windows Server 2019, 2022 und 2025 optimiert.
Über das WAC lassen sich Storage-Ressourcen umfassend konfigurieren, überwachen und erweitern.
- Erstellung und Verwaltung von Speicherpools
- Konfiguration von Storage Spaces Direct
- Performance-Analyse und Storage-Dashboards
Microsoft integriert das WAC zunehmend in Azure Arc, wodurch die Verwaltung nicht nur lokal, sondern auch direkt aus dem Azure-Portal möglich wird. Damit verschwimmen die Grenzen zwischen lokaler Administration und Cloud-Management – ein Trend, der in künftigen Windows Server-Versionen noch stärker werden dürfte.
Da das WAC Remote-Zugriffe ohne RDP-Sitzung ermöglicht und Azure-Dienste wie File Sync direkt integriert, wird es heute von Microsoft als primäres Tool für Storage-Administration empfohlen.
PowerShell
Für alle, die Automatisierung und Wiederholbarkeit schätzen, bleibt PowerShell das mächtigste Werkzeug. Über Cmdlets wie New-Volume oder Get-SmbShareAccess lassen sich komplexe Aufgaben skriptgesteuert ausführen – ideal für große oder wiederkehrende Konfigurationen.
- Performance-Tests und Fehlerdiagnose
- Verwaltung von SMB-Freigaben und Zugriffsrechten
- Vollautomatisierte Provisionierung von Volumes
Gerade in Kombination mit dem Windows Admin Center entfaltet PowerShell seine volle Stärke: Die GUI liefert Übersicht, PowerShell sorgt für präzise, reproduzierbare Änderungen im Hintergrund.
In der Praxis hat sich bewährt, Windows Admin Center als zentrales Verwaltungstool einzusetzen und PowerShell gezielt für Automatisierung und Massenänderungen zu nutzen. So lassen sich Storage-Ressourcen nicht nur komfortabel verwalten, sondern auch effizient und fehlerfrei in Betrieb halten.
Storage-Grundlagen
Bevor moderne Features wie Storage Spaces Direct oder SMB over QUIC ins Spiel kommen, beginnt jede Storage-Planung unter Windows Server mit den Grundlagen. Dazu gehören die Initialisierung, Partitionierung und Formatierung von Datenträgern, die Wahl des Partitionsschemas sowie die Entscheidung für ein passendes Dateisystem.
Initialisierung, Partitionierung, Formatierung
Ein neu eingebauter Datenträger muss zunächst initialisiert werden – wahlweise mit MBR (Master Boot Record) oder GPT (GUID Partition Table).
- MBR
- Kompatibel zu älteren BIOS-basierten Systemen
- Unterstützt maximal vier Partitionen
- Möglichkeit, eine erweiterte Partition anzulegen, in der mehrere logische Laufwerke erstellt werden können
- Maximal 2 TB pro Volume
- Notwendig, wenn das System mit klassischem BIOS booten soll
- Keine native Unterstützung für UEFI- oder moderne 64-Bit-Bootfunktionen
- GPT
- Pflicht für UEFI-basierte Systeme und damit Standard bei aktuellen 64-Bit-Servern
- Unterstützt bis zu 128 Partitionen ohne den Umweg über erweiterte Partitionen
- Sehr große Volumegrößen möglich (theoretisch bis in den Zettabyte-Bereich, praktisch durch Betriebssystem‑ und Hardware‑Limits begrenzt)
- Redundante Partitionstabellen und CRC-Prüfung für höhere Datensicherheit
- Voraussetzung für Funktionen wie Secure Boot
Praxis-Hinweis:
Für neue Windows Server 2025-Installationen auf 64-Bit-Hardware ist GPT in Kombination mit UEFI der empfohlene Standard. MBR sollte nur für Legacy-Systeme oder spezielle Kompatibilitätsszenarien genutzt werden.
Nach der Initialisierung folgt die Partitionierung (z.B. in primäre und logische Partitionen) und schließlich die Formatierung. Dazu stehen in Windows Server 2025 traditionell verschiedene Dateisysteme zur Verfügung.
Dateisysteme im Überblick
Windows Server 2025 unterstützt verschiedene Dateisysteme, die sich in Leistungsfähigkeit, Kompatibilität und Funktionsumfang unterscheiden:
- FAT (File Allocation Table) – Historisches Dateisystem, heute nur noch für spezielle Legacy-Geräte relevant
- Maximale Volumegröße: 4 GB (praktisch)
- Maximale Dateigröße: 2 GB (FAT12/16)
- FAT32 – Erweiterte FAT-Version, technisch bis 2 TB, in Windows-Tools meist auf 32 GB beschränkt, max. Dateigröße 4 GB
- exFAT (Extended FAT) – Optimiert für Flashspeicher, große Dateien und plattformübergreifende Nutzung, aber ohne Journaling, daher nicht für produktive Servervolumes geeignet
- Maximale Volumegröße: 128 PB
- Maximale Dateigröße: 16 EB (praktisch stark durch Implementierung begrenzt)
- NTFS (New Technology File System) – Standard-Dateisystem für Windows-Servervolumes, unterstützt Verschlüsselung, Quotas, Kompression, Transaktionen
- Maximale Volumegröße: 256 TB
- Maximale Dateigröße: 256 TB (abhängig von Clustergröße)
- ReFS (Resilient File System) – Fokus auf Integrität, Selbstheilung, Snapshots und große Volumes, optimiert für virtualisierte Workloads und Hochverfügbarkeit
- Maximale Volumegröße: 35 PB
- Maximale Dateigröße: 35 PB
Die hier genannten Werte – insbesondere für NTFS und ReFS – entsprechen den von Microsoft aktuell implementierten Limits. Die theoretischen Architekturgrenzen der Dateisysteme liegen deutlich höher:
- NTFS: bis zu 16 Exabyte (EB)
- ReFS: bis zu 4 Zettabyte (ZB)
Diese Maximalwerte sind aktuell weniger praxisrelevant, da sie weit über den physisch verfügbaren Speicherkapazitäten liegen. Microsoft begrenzt die nutzbare Größe in Windows bewusst aus Gründen der Kompatibilität, Stabilität und Performance.
Praxis-Hinweis: FAT32 und exFAT kommen im Serveralltag fast ausschließlich für Installationsmedien, Firmware-Updates oder Wechseldatenträger zum Einsatz – produktive Volumes setzen in der Regel auf NTFS oder ReFS.

Exkurs: NTFS oder ReFS – Wer die Wahl hat, hat die Qual
Die Wahl zwischen NTFS und ReFS ist eine der zentralen Entscheidungen bei der Storage-Planung in Windows Server 2025. Beide Systeme haben ihre Stärken – und ihre klaren Grenzen. Deshalb lohnt es sich, ihre Eigenschaften im direkten Vergleich zu betrachten.
NTFS – Der bewährte Klassiker
NTFS ist seit Jahrzehnten das Standard-Dateisystem unter Windows Server und gilt als äußerst robust und vielseitig.
Es bietet unter anderem:
- Bootfähigkeit für Systemlaufwerke
- Breite Unterstützung in Backup- und Recovery-Lösungen
- Hohe Kompatibilität mit nahezu allen Windows-Tools und Drittanbieter-Programmen
- Unterstützung für EFS-Verschlüsselung, Quotas, Komprimierung und Hardlinks
Seine Schwächen liegen vor allem beim Schutz gegen stillen Datenverlust (Bitrot), sofern keine zusätzlichen Integritätsmechanismen vorhanden sind.
ReFS – Der resiliente Herausforderer
ReFS wurde mit dem Ziel entwickelt, große Datenmengen zuverlässig zu verwalten und Datenintegrität auch bei Hardwarefehlern sicherzustellen.
Typische Vorteile sind:
- Automatische Selbstheilung defekter Blöcke bei aktivierten Integrity Streams (in Kombination mit Spiegelung/Parität)
- Fokus auf Ausfallsicherheit und Datenintegrität
- Optimierung für große Volumes und virtualisierte Workloads
- Unterstützung moderner Features wie Block Cloning und Mirror-Accelerated Parity
Einschränkungen gibt es vor allem in puncto Featureumfang – so ist ReFS nicht bootfähig, bietet keine EFS-Verschlüsselung oder Komprimierung und setzt für viele Integritätsfunktionen auf Storage Spaces.
Praxisempfehlung
In der Praxis bleibt NTFS das Standard-Dateisystem für Systemvolumes und kleinere bis mittlere Dateiserver. ReFS hingegen entfaltet seine Stärken in Hyper-V-Clustern, Storage Spaces Direct-Umgebungen oder Archivspeichern mit hohem Integritätsanspruch. Wer ReFS einsetzen möchte, sollte die fehlende Bootfähigkeit und die Abhängigkeit von bestimmten Storage-Architekturen berücksichtigen.
Weiterführende Informationen
ReFS Integrity Streams – Datenintegrität in der Praxis
Eine besondere Stärke von ReFS ist die Möglichkeit, Integrity Streams zu nutzen.
Diese Funktion schützt Daten durch Prüfsummen, die beim Schreiben und Lesen jedes Datenblocks überprüft werden. So lassen sich stille Datenfehler (Bitrot) erkennen und – in Verbindung mit redundanten Speicher-Layouts wie Spiegelung oder Parität – automatisch korrigieren.
Funktionsweise
Beim Schreiben berechnet ReFS für jeden Block eine Prüfsumme und speichert sie zusammen mit den Metadaten.
Beim Lesen wird diese Prüfsumme erneut berechnet und mit der gespeicherten verglichen.
Wird eine Abweichung festgestellt, kann ReFS bei vorhandener Redundanz den fehlerhaften Block automatisch durch eine intakte Kopie ersetzen.
Einsatzempfehlungen
Integrity Streams sind besonders sinnvoll für Daten mit hohem Integritätsanspruch, beispielsweise Archive, virtuelle Festplatten (VHDX) oder kritische Konfigurationsdateien. Die Funktion entfaltet ihre maximale Wirkung in Kombination mit Storage Spaces im Mirror- oder Parity-Layout.
Für temporäre Daten oder Workloads mit sehr hoher Schreibfrequenz ist der Nutzen hingegen gering, da die Integritätsprüfung zusätzlichen Overhead erzeugt.
Konfiguration
Die Aktivierung oder Deaktivierung von Integrity Streams kann gezielt auf Datei- oder Ordnerebene erfolgen.
Unter Windows Server bietet sich hierfür PowerShell an, beispielsweise mit folgendem Befehl:
Set-FileIntegrity D:\Archive -Enable $true
Best Practices
Integrity Streams sollten gezielt und selektiv eingesetzt werden, um unnötige Performance-Einbußen zu vermeiden. Es ist wichtig zu beachten, dass diese Funktion kein Backup ersetzt, sondern lediglich vor stillen Datenfehlern schützt.
Ein begleitendes Monitoring hilft dabei, erkannte Fehler und deren Korrekturen im Blick zu behalten.
Praxis-Hinweis
Integrity Streams können die Lebensdauer von Datenbeständen verlängern, indem sie unbemerkte Beschädigungen verhindern. Für eine automatische Korrektur ist jedoch ein redundantes Speicher-Layout wie Spiegelung oder Parität zwingend erforderlich.
In der Praxis wird diese Funktion daher häufig in Verbindung mit Storage Spaces oder Storage Spaces Direct genutzt – Themen, die im nächsten Abschnitt detailliert erläutert werden.
Speicherpools, Storage Spaces und Storage Spaces Direct (S2D)
Windows Server 2025 bietet mit Speicherpools und Storage Spaces flexible Möglichkeiten, physische Datenträger zu virtuellen Volumes zusammenzufassen. Diese Technologien sind das Fundament moderner, softwaredefinierter Speicherlösungen und bilden gleichzeitig die Basis für Storage Spaces Direct (S2D), das in Clustern für Hochverfügbarkeit sorgt.
Speicherpools
Ein Speicherpool ist eine logische Zusammenfassung mehrerer physischer Datenträger.
Dadurch lassen sich Speicherressourcen flexibel bereitstellen und dynamisch erweitern, ohne dass die darunterliegende Hardwarestruktur für Benutzer:innen sichtbar ist.
Typische Vorteile sind:
- Zusammenfassung unterschiedlicher Datenträgertypen (HDD, SSD, NVMe)
- Flexible Zuweisung von Kapazität an virtuelle Datenträger (Storage Spaces)
- Unterstützung von Funktionen wie Spiegelung, Parität oder Tiering
Speicherpools können jederzeit um zusätzliche Datenträger erweitert werden, wobei es empfehlenswert ist, die Leistungscharakteristik der neuen Medien an die bestehende Konfiguration anzupassen.
Storage Spaces
Storage Spaces sind die virtuellen Volumes, die aus einem Speicherpool heraus erstellt werden. Sie bieten neben klassischer Datenspeicherung auch resiliente Layouts, die Daten vor Ausfällen schützen:
- Simple (Stripe) – ohne Redundanz, maximale Performance
- Mirror – Spiegelung für hohe Ausfallsicherheit
- Parity – platzsparende Redundanz für größere Datenmengen
Mit Windows Server 2025 stehen zudem Data Deduplication und Speicher-Tiering zur Verfügung, sodass häufig genutzte Daten automatisch auf schnellere Medien (z.B. SSDs) verschoben werden.

Exkurs: Storage Tiering in Windows Server – Schnelle und langsame Speicher intelligent kombinieren
Storage Tiering ist eine Technik, bei der unterschiedliche Speichertechnologien – typischerweise schnelle SSDs und günstigere, aber langsamere HDDs – in einem gemeinsamen Speicherpool genutzt werden.
Windows Server verschiebt Daten dabei automatisch zwischen den Tiers, um Performance und Kapazitätsnutzung zu optimieren.
Funktionsprinzip
- Hot Data (häufig genutzte Daten) werden automatisch auf den schnellen SSD-Tier verschoben
- Cold Data (selten genutzte Daten) verbleiben auf dem langsameren HDD-Tier
- Die Verschiebung erfolgt anhand von Zugriffsstatistiken, die Windows regelmäßig aktualisiert
Diese automatisierte Platzierung bedeutet, dass Workloads, die schnelle Antwortzeiten benötigen, von SSD-Leistung profitieren, während archivierte oder selten benötigte Daten kostengünstig auf HDDs liegen.
Implementierung in Windows Server
- Konfiguration erfolgt über PowerShell oder Windows Admin Center
- Mindestens ein Datenträger pro Tier und Knoten ist erforderlich
- Storage Tiering ist eng mit Storage Spaces und Storage Spaces Direct (S2D) verknüpft
Beispiel PowerShell-Befehl für Tier-Erstellung:
New-StorageTier -StoragePoolFriendlyName 'Pool1' ` -FriendlyName 'Performance' -MediaType SSD New-StorageTier -StoragePoolFriendlyName 'Pool1' ` -FriendlyName 'Capacity' -MediaType HDD
Best Practices
- Monitoring etablieren: Regelmäßig überprüfen, ob das Tiering wie gewünscht arbeitet – besonders nach Änderungen im Datenprofil
- Tier-Größe planen: SSD-Tier nicht zu klein wählen, um häufig genutzte Daten vollständig abzudecken
- Workload-Analyse durchführen: Vorab prüfen, welche Daten tatsächlich von einem schnelleren Tier profitieren
Praxis-Hinweis
Storage Tiering kann Performance und Kostenoptimierung effektiv verbinden.
Allerdings lohnt es sich nur, wenn das Verhältnis zwischen schnellen und langsamen Datenbeständen stabil ist. Bei stark wechselnden Zugriffsmustern kann der Verwaltungsaufwand steigen, da häufige Tier-Umschichtungen zusätzliche I/O-Last verursachen.
Storage Spaces Direct (S2D)
Storage Spaces Direct ist eine Weiterentwicklung der Speicherpools für Clusterumgebungen. Es kombiniert lokale Laufwerke mehrerer Clusterknoten zu einem gemeinsamen, hochverfügbaren Speicher. Einsatzszenarien sind unter anderem:
- Hyper-V-Cluster für virtuelle Maschinen
- Scale-Out File Server (SOFS) für hochperformanten Dateizugriff
S2D bietet mit Windows Server 2025 Verbesserungen bei Performance, Verwaltung und Hardwarekompatibilität. Die technischen Anforderungen sind klar definiert – Microsoft nennt diese in der Übersicht zu den Hardwareanforderungen.
Besonders relevant ist dabei das Symmetrie-Prinzip: Jeder Clusterknoten sollte die gleiche Anzahl und Art von Datenträgern enthalten, um optimale Leistung zu gewährleisten.
Praxis-Tipp: Erweiterbarkeit von Storage Spaces Direct richtig planen
Die Erweiterung eines S2D-Clusters ist planungsintensiver als bei einfachen Speicherpools. Neue Datenträger müssen in der Regel gleichzeitig in allen Knoten ergänzt werden. Unterschiedliche Kapazitäten oder Laufwerkstypen können zu ungenutzten Ressourcen oder Performanceeinbußen führen.
Wer zukünftige Ausbauten plant, sollte daher:
- Ausreichend freie Laufwerksslots vorsehen
- Netzwerkanbindung (RDMA, 25/40/100 GbE) für spätere Erweiterungen dimensionieren
- Speicher-Tiers (SSD/NVMe/HDD) gleichmäßig aufbauen
Eine gute Orientierung bieten neben der Microsoft-Dokumentation auch Best Practices von Dell und ein Artikel zum Thema von ComputerWeekly.

Exkurs: Technologien von gestern
Nicht alle Funktionen, die Windows Server im Storage-Bereich bietet, sind noch zeitgemäß. Einige stammen aus einer Ära, in der Storage-Hardware und Betriebssysteme deutlich einfacher aufgebaut waren – und bringen heute eher Nachteile als Vorteile mit sich. Zwei prominente Beispiele sind dynamische Datenträger und Software-RAID.
Dynamische Datenträger
Dynamische Datenträger waren lange Zeit ein flexibles Werkzeug, um Volumes ohne Neustart zu erweitern oder zu spiegeln. Sie boten Funktionen wie:
- Erstellen von gespannten (spanned) und gestripten (striped) Volumes
- Online-Vergrößerung von Volumes
- Softwarebasierte Spiegelung und Parität
In modernen Umgebungen haben sie jedoch mehrere Nachteile:
- Eingeschränkte Kompatibilität mit aktuellen Verwaltungswerkzeugen wie Windows Admin Center
- Keine Unterstützung für Storage Spaces Direct oder moderne Resilienz-Features
- Migrationseinschränkungen, z.B. beim Verschieben auf andere Systeme oder in die Cloud
Heute gilt: Wer neue Server aufsetzt, sollte konsequent auf Basisdatenträger in Verbindung mit Storage Spaces setzen.
Software-RAID über Datenträgerverwaltung
Windows bietet in der Datenträgerverwaltung – übernommen aus Zeiten von Windows NT – die Möglichkeit, einen RAID-Verbunde rein softwarebasiert anzulegen – etwa als gespiegeltes Volume (RAID 1) oder gestriptes Volume (RAID 0).
Auch wenn dies in der Theorie einfache Redundanz oder Performance bringt, gibt es entscheidende Schwächen:
- Geringere Performance im Vergleich zu Hardware- oder Storage Spaces-Lösungen
- Höhere CPU-Last bei großen Datenmengen
- Keine tiefe Integration in moderne Überwachungs- und Verwaltungsfunktionen
In produktiven Umgebungen sind softwarebasierte RAIDs heute fast ausschließlich eine Notlösung, wenn keine Hardware- oder Storage Spaces-Infrastruktur zur Verfügung steht.
Praxis-Empfehlung
Microsoft selbst rät in aktuellen Best-Practice-Guides dazu, dynamische Datenträger und softwarebasiertes RAID nicht mehr für neue Deployments zu verwenden. Stattdessen sollten Storage Spaces oder S2D genutzt werden, um moderne Funktionen wie Tiering, Deduplizierung und resiliente Layouts zu ermöglichen.
Storage Replica und Hochverfügbarkeit
Windows Server 2025 bietet mit Storage Replica eine integrierte Lösung zur Block-basierten Replikation von Daten zwischen Servern oder Clustern.
Damit lassen sich nicht nur klassische Ausfallszenarien absichern, sondern auch geplante Wartungsfenster ohne Downtime realisieren.
Funktionsprinzip
Storage Replica arbeitet auf Blockebene und repliziert Änderungen unabhängig vom Dateisystem. Dadurch wird gewährleistet, dass Ziel und Quelle jederzeit einen identischen Datenstand haben (synchron) oder zumindest alle Änderungen ohne Datenverlust übertragen werden (asynchron).
Es gibt zwei Hauptmodi:
- Asynchrone Replikation – Schreibvorgänge werden auf der Quelle sofort bestätigt, die Übertragung zum Ziel erfolgt verzögert
- Synchrone Replikation – Daten werden zeitgleich auf Quelle und Ziel geschrieben, bevor der Schreibvorgang als abgeschlossen gilt
Einsatzszenarien
Storage Replica eignet sich für unterschiedlichste Szenarien, in denen Daten über mehrere Systeme hinweg verfügbar bleiben müssen:
- Desaster Recovery zwischen Standorten
- Geplante Wartungsarbeiten ohne Ausfallzeiten
- Hochverfügbarkeit zwischen zwei Servern in einem Rechenzentrum
Egal ob es um die Absicherung kritischer Workloads, die Reduzierung von Ausfallzeiten oder die Unterstützung von Disaster-Recovery-Strategien geht – die Technologie lässt sich flexibel anpassen.
In Clusterumgebungen wird Storage Replica oft in Verbindung mit Cluster Shared Volumes (CSV) und Storage Spaces Direct eingesetzt, um sowohl lokale als auch standortübergreifende Redundanz zu gewährleisten.
Hardware- und Netzwerk-Anforderungen
Damit Storage Replica zuverlässig und performant arbeitet, müssen Hardware- und Netzwerkressourcen sorgfältig geplant werden. Gerade im synchronen Modus kann die Leistung stark von Latenzzeiten und der Bandbreite abhängen, weshalb eine passende Infrastruktur entscheidend ist.
- Ausreichende Bandbreite und niedrige Latenz, insbesondere im synchronen Modus
- Laufwerke mit identischer Größe und Leistung auf Quelle und Ziel
- Separate Netzwerke für Replikationsverkehr empfohlen
Die Microsoft-Dokumentation zu Storage Replica beschreibt detailliert unterstützte Szenarien, Limits und Best Practices.
Praxis-Hinweis
Die synchrone Replikation bietet höchste Datensicherheit, kann aber bei unzureichender Netzwerkperformance zu Latenzen führen. Für standortübergreifende Szenarien wird daher oft die asynchrone Variante bevorzugt, um auch über größere Distanzen eine gute Performance zu erzielen.

Exkurs: Windows Server Datendeduplizierung
Die Datendeduplizierung in Windows Server ist eine Funktion, mit der sich redundante Datenblöcke identifizieren und platzsparend speichern lassen. Anstatt identische Inhalte mehrfach auf der Festplatte abzulegen, speichert das System sie nur einmal und verweist bei weiteren Vorkommen darauf. Dies kann – je nach Datenbestand – erhebliche Einsparungen im Speicherbedarf bringen.
Funktionsprinzip
Bei der Deduplizierung wird jede Datei in kleinere Bestandteile – die Chunks – zerlegt. Diese Chunks werden im sogenannten Chunk Store abgelegt, einem speziellen Speicherbereich innerhalb des Dateisystems.
Wichtig: Unter Windows Server liegt der Chunk Store immer auf demselben Volume, auf dem die Deduplizierung aktiviert wurde – sein Speicherort kann nicht verschoben oder ausgelagert werden.
Wenn ein identischer Chunk bereits existiert, wird er nicht erneut gespeichert, sondern es wird lediglich ein Verweis darauf gesetzt. Ab einer bestimmten Anzahl von Referenzen kann Windows Server einen zweiten physischen Chunk anlegen, um die Ausfallsicherheit innerhalb des Chunk Store zu erhöhen.
Im Hintergrund sorgen Aufräum- und Optimierungsprozesse (Garbage Collection) dafür, dass verwaiste Chunks regelmäßig entfernt und Speicherplatz freigegeben wird. Diese Vorgänge laufen typischerweise außerhalb der Hauptlastzeiten, um die Systemleistung nicht zu beeinträchtigen.
Bedenken hinsichtlich Datensicherheit
Manche Administrator:innen verwechseln die mehrfache Ablage identischer Dateien auf demselben Volume mit einem Sicherheitsmechanismus. Diese vermeintliche Datensicherheit geht bei der Deduplizierung scheinbar verloren, da die Daten physisch nur noch einmal gespeichert werden.
Tatsächlich handelt es sich hierbei jedoch um ein trügerisches Konzept: Mehrfachkopien auf demselben Volume bieten keinerlei Schutz vor Hardwaredefekten oder logischer Beschädigung des Dateisystems. Echte Datensicherheit wird nur durch getrennte Sicherungskonzepte wie Backups oder Replikation erreicht.
Im Gegenteil kann die Aufsplittung vieler Dateien in Chunks und die damit verbundene Reduzierung des Speicherplatzbedarfs gerade bei mechanischen Festplatten zu einer geringeren Belastung führen. Weniger Schreib- und Leseoperationen auf redundanten Datenblöcken können die Lebensdauer solcher Datenträger sogar positiv beeinflussen.
Einsatzszenarien
Datendeduplizierung ist besonders effektiv, wenn viele Dateien mit identischen oder ähnlichen Inhalten gespeichert werden:
- Dateiserver mit Benutzerordnern, Profilen oder Projektarchiven
- Software-Distributionsfreigaben und Installationsmedien
- VDI-Umgebungen mit vielen gleichartigen Betriebssystem-Images
Weniger geeignet ist sie für:
- Datenbanken mit häufigen kleinen Änderungen
- Stärker komprimierte Dateiformate (ZIP, MP4, JPG)
- Verschlüsselte Dateien
System- und Performanceaspekte
Deduplizierung benötigt CPU-Leistung und Arbeitsspeicher, um Chunks zu berechnen und zu verwalten. Auf Systemen mit begrenzten Ressourcen kann dies zu einer spürbaren Last führen. Daher ist es ratsam, Deduplizierung gezielt nur auf Volumes zu aktivieren, die für den gewünschten Einsatzzweck geeignet sind.
Hintergrundprozesse lassen sich über Zeitpläne steuern, sodass sie beispielsweise nur nachts oder an Wochenenden laufen.
Lohnt sich Deduplizierung?
Die Antwort hängt stark vom Datenprofil und der verfügbaren Systemleistung ab:
- Ja, wenn ein hoher Anteil redundanter Daten vorhanden ist und CPU- / RAM-Reserven ausreichend dimensioniert sind.
- Eher nein, wenn überwiegend nicht deduplizierbare Dateitypen gespeichert werden oder das System unter hoher Dauerlast steht.
SMB, NFS und moderne Protokolle
Die Wahl des richtigen Protokolls für Datei- und Datenzugriff ist ein entscheidender Baustein jeder Storage-Architektur. Windows Server 2025 bietet mit SMB und NFS zwei etablierte Standards, die sich sowohl im Funktionsumfang als auch in den bevorzugten Einsatzbereichen unterscheiden. Beide werden kontinuierlich weiterentwickelt und in moderne Sicherheits- und Hochverfügbarkeitskonzepte integriert.
SMB – Server Message Block
SMB ist das zentrale Dateifreigabeprotokoll in Windows-Umgebungen.
In Windows Server 2025 basiert es auf der aktuellen Generation SMB 3.x, die Performance, Sicherheit und Skalierbarkeit deutlich verbessert.
Historische Entwicklung
- SMB 1.0 (ca. 1992) – stark veraltet und unsicher, seit Windows Server 2016 standardmäßig deaktiviert
- SMB 2.x (2006) – reduzierte Latenzen, deutlich effizientere Übertragungen
- SMB 3.x (2012) – moderne Features wie Verschlüsselung, Multichannel, RDMA und Kompression
- SMB 3.1.1. (2016) – aktueller Hauptstandard, auch in Windows Server 2025
Zentrale Funktionen in SMB 3.1.1 unter Windows Server 2025
Mit der aktuellen Version bringt SMB eine Reihe von Funktionen mit, die nicht nur die Performance steigern, sondern auch Sicherheit und Stabilität im Netzwerkbetrieb erhöhen. Gerade in größeren Umgebungen oder bei hochperformanten Workloads machen sich diese Verbesserungen deutlich bemerkbar:
- Directory Leasing – optimiertes Caching für verteilte Umgebungen
- SMB Compression – Reduzierung der übertragenen Datenmenge für große Dateien
- SMB Direct (RDMA) – direkter Speicherzugriff über RDMA-fähige NICs (RoCE, iWARP, InfiniBand) mit minimaler CPU-Last
- SMB Encryption – Ende-zu-Ende-Verschlüsselung auf Protokollebene
- SMB Multichannel – parallele Nutzung mehrerer Netzwerkverbindungen für höhere Bandbreite und Ausfallsicherheit
- SMB Signing – Integritätsschutz für alle übertragenen Daten
Typische Einsatzszenarien
SMB wird in Windows-Umgebungen nahezu universell eingesetzt. Von klassischen Dateiservern über hochverfügbare Cluster bis hin zu hybriden Szenarien mit Azure ist SMB ein fester Bestandteil vieler Infrastrukturen:
- Klassische Windows-Dateiserver
- Hyper-V-Cluster mit CSVs
- Scale-Out File Server für hochperformante Workloads
- Hybrid-Szenarien mit Azure File Sync
SMB Compression – Daten komprimieren, bevor sie das Netz verlassen
Mit SMB Compression hat Microsoft eine Funktion in SMB 3.1.1 eingeführt, die Daten bereits auf Protokollebene komprimiert, bevor sie über das Netzwerk übertragen werden. Das Ziel: die zu übertragende Datenmenge zu reduzieren und so Bandbreite zu sparen – besonders nützlich bei langsamen oder stark ausgelasteten Verbindungen.
Funktionsprinzip
- Der SMB‑Client sendet beim Verbindungsaufbau eine Anforderung, SMB Compression zu aktivieren.
- Der SMB‑Server prüft, ob die Kompression für die angefragte Freigabe erlaubt ist, und aktiviert diese ggf. für den Transfer.
- Die Kompression erfolgt blockweise, sodass sich auch große Dateien streamen lassen.
Wann lohnt sich SMB Compression?
- Große, gut komprimierbare Dateien (z.B. Text, Office‑Dokumente, Logdateien)
- Szenarien mit Bandbreitenbeschränkungen (Homeoffice, Filialanbindung)
- Transfers über WAN‑ oder VPN‑Strecken
Wann ist SMB Compression weniger sinnvoll?
- Bereits komprimierte Formate (z.B. ZIP, JPEG, MP4) – kaum Größenersparnis, aber zusätzliche CPU‑Last
- Hochperformante LAN‑Verbindungen, bei denen Bandbreite kein Engpass ist
Konfiguration
SMB Compression lässt sich auf Server‑ und Freigabeebene aktivieren oder deaktivieren – entweder per PowerShell oder über Gruppenrichtlinien:
# SMB Compression für eine Freigabe aktivieren Set-SmbShare -Name 'Projekte' -CompressData $true
# SMB Compression global deaktivieren Set-SmbServerConfiguration -DisableCompression $true
Praxis-Hinweis
In gemischten Umgebungen empfiehlt es sich, SMB Compression gezielt nur für Freigaben oder Szenarien zu aktivieren, die tatsächlich von der reduzierten Datenmenge profitieren. Ein blindes Aktivieren kann unnötige CPU‑Last verursachen – insbesondere bei Storage- oder Hyper-V-Servern unter hoher Grundlast.
SMB Multichannel – Mehr Durchsatz, mehr Ausfallsicherheit
SMB Multichannel nutzt automatisch mehrere physische oder virtuelle Netzwerkpfade parallel, wenn sowohl Server als auch Client über mehrere Netzwerkadapter verfügen.
Das Ergebnis: höherer Gesamtdurchsatz und gleichzeitige Redundanz, falls eine Verbindung ausfällt.
Vorteile
- Failover-Schutz bei Ausfall einzelner Verbindungen
- Keine manuelle Konfiguration erforderlich, solange die Adapter im gleichen Subnetz liegen
- Parallele Nutzung mehrerer Links für mehr Performance
Praxisbeispiele
- File-Server mit hoher paralleler Zugriffslast
- Hyper-V-Cluster mit mehreren 10 GbE- oder 25 GbE-Links
SMB Direct (RDMA) – Minimale Latenz, maximale Effizienz
SMB Direct setzt auf RDMA-fähige Netzwerkkarten (z.B. RoCE, iWARP, InfiniBand), um Daten direkt zwischen Speicher und Netzwerk zu übertragen, ohne den Hauptprozessor stark zu belasten. Dies führt zu minimaler Latenz und geringer CPU-Last, was besonders in hochperformanten Szenarien entscheidend ist.
Vorteile
- Deutlich geringere Latenz im Vergleich zu TCP-basierten Transfers
- Hoher Durchsatz auch bei niedriger CPU-Auslastung
- Optimal für hochperformante Workloads wie Storage Spaces Direct oder Hyper-V-Cluster
Voraussetzungen
- Durchgängig RDMA-fähige Netzwerk-Infrastruktur
- Entsprechende Konfiguration im Netzwerk (z.B. PFC bei RoCE)
- RDMA-kompatible Adapter und Treiber
Praxis-Hinweis
SMB Multichannel funktioniert out-of-the-box und ist in den meisten Umgebungen sofort aktiv. SMB Direct erfordert hingegen spezielle Hardware und sollte gezielt für Workloads eingesetzt werden, bei denen der Performancegewinn den Mehraufwand rechtfertigt.
NFS – Network File System
Während SMB in Windows-Umgebungen die erste Wahl ist und mit Funktionen wie SMB Compression, SMB Multichannel und SMB Direct (RDMA) hohe Performance und Sicherheit bietet, kommt in gemischten Netzwerken häufig NFS zum Einsatz. Das Network File System ist ein plattformübergreifender Standard, der vor allem in Unix- und Linux-Netzwerken weit verbreitet ist und in Windows Server 2025 vollständig unterstützt wird.
NFS eignet sich, wenn sowohl Windows- als auch Nicht-Windows-Systeme auf denselben Speicher zugreifen müssen – etwa in Entwicklungsumgebungen, Virtualisierungsplattformen oder bei NAS-Anbindungen.
Versionen und Merkmale
Auch NFS ist in mehreren Versionen verfügbar, die sich im Funktionsumfang deutlich unterscheiden:
- NFS v3 – weit verbreitet, kompatibel zu älteren Clients, jedoch ohne native Verschlüsselung
- NFS 1 – moderne Version mit Kerberos-Authentifizierung, Multipathing und Stateful Sessions
- pNFS (Parallel NFS) – parallele Datenübertragung über mehrere Server (unter Windows nur per Drittanbieter möglich)
Typische Einsatzszenarien
NFS kommt in heterogenen Netzwerken und bei bestimmten Virtualisierungs- und Container-Workloads besonders häufig zum Einsatz:
- Anbindung von NAS-Systemen an Windows Server
- Bereitstellung von Storage für Linux-/UNIX-Clients
- Integration mit VMware ESXi-Hosts und Kubernetes-Clustern
- Langzeitarchivierung auf NAS-Appliances
Neuerungen in Windows Server 2025
Microsoft hat die NFS-Implementierung weiter optimiert und besser in Active Directory integriert:
- Leistungsoptimierungen im NFS-Serverdienst
- Verbesserte Kerberos-basierte Authentifizierung
- Verwaltung über Windows Admin Center und PowerShell
Best Practices für Protokollwahl und -betrieb
Die parallele Nutzung von SMB und NFS ist in gemischten Umgebungen gängige Praxis.
Entscheidend ist, die Protokolle gezielt einzusetzen und optimal zu konfigurieren:
- SMB bevorzugt für Windows-native Workloads und hochverfügbare Cluster
- NFS für plattformübergreifende Integration und spezielle Applikationen
- Sicherheitsfeatures aktivieren – SMB Encryption oder Kerberos für NFS
- Performance optimieren – RDMA bei SMB, Jumbo Frames und asynchrones I/O bei NFS
- Monitoring etablieren – Performance Counter, Event Logs und Protokoll-spezifische Tools
- Legacy vermeiden – SMB 1 und unverschlüsseltes NFS nicht mehr produktiv einsetzen

Exkurs: SMB over QUIC – Die Zukunft der sicheren Dateiübertragung ohne VPN
Mit SMB over QUIC bringt Microsoft eine Technologie in Windows Server 2022 und 2025, die sicheren Datei- und Anwendungszugriff auch außerhalb des Firmennetzwerks ermöglicht – ohne den Umweg über eine klassische VPN-Verbindung.
QUIC selbst ist ein von Google entwickeltes Protokoll, das erstmals 2013 vorgestellt wurde. Der Name ist ein sogenanntes rekursives Akronym und steht für QUIC: Quick UDP Internet Connections.
Es kombiniert Transport- und Verschlüsselungsschicht, baut also direkt auf UDP auf und integriert TLS 1.3, wodurch separate Handshakes entfallen. Ursprünglich wurde QUIC entwickelt, um HTTP/3 zu beschleunigen – Microsoft hat es nun als Transportweg für SMB adaptiert.
Vorteile von SMB over QUIC
- Bessere Performance bei hoher Latenz oder Paketverlust (z.B. Mobilnetze, Homeoffice)
- End-to-End-Verschlüsselung dank integriertem TLS 3
- Ideal für BYOD-Szenarien oder Umgebungen, in denen VPN-Clients nicht administriert werden können
- Kein separater VPN-Client nötig – der Zugriff erfolgt direkt über den SMB-Client
- Schnellere Verbindungsaufnahme durch reduzierte Handshake-Overheads
Funktionsprinzip
Anstatt SMB über TCP/445 zu betreiben, wird der SMB-Datenverkehr in einen QUIC-Tunnel über UDP gekapselt. Der Server lauscht dabei auf einem dedizierten QUIC-Port (Standard: 443, kann angepasst werden) und authentifiziert Clients per Kerberos oder Zertifikat.
Durch die QUIC-Eigenschaften ist der Verbindungsaufbau schneller und unempfindlicher gegenüber Netzwerkausfällen – einzelne Streams können neu aufgebaut werden, ohne die gesamte Verbindung zu verlieren.
Einsatzszenarien
- Sicherer Dateizugriff von unterwegs ohne VPN
- Unterstützung hybrider Workloads, bei denen Fileservices sowohl On-Premises als auch in der Cloud bereitgestellt werden
- Zugriff von Filialen oder Homeoffice-Arbeitsplätzen mit eingeschränkter Netzwerkkonnektivität
Praxis-Hinweis
SMB over QUIC erfordert Windows 11 oder Windows Server 2022 / 2025 auf Client- und Serverseite sowie die Aktivierung im SMB-Serverdienst. In der Einführungsphase empfiehlt es sich, die Konfiguration mit Testgruppen zu validieren und sowohl Performance als auch Sicherheitsrichtlinien anzupassen.
Freigaben und Berechtigungen im Storage-Kontext
Dateifreigaben sind das Bindeglied zwischen der Speicherinfrastruktur und den Benutzer:innen oder Diensten, die darauf zugreifen.
Windows Server 2025 bietet dafür ausgereifte Werkzeuge, um sowohl die Freigabe selbst als auch den Zugriff granular zu steuern. Dabei gilt es, technische Möglichkeiten mit einem klaren Berechtigungskonzept zu kombinieren.
Einrichtung von Freigaben
Freigaben können direkt im Server Manager, über das Windows Admin Center oder via PowerShell erstellt werden. Unabhängig vom Tool gilt: Neben dem eigentlichen Freigabenamen sollten auch Freigabetyp und Zugriffsprotokoll (SMB oder NFS) festgelegt werden.
Für die Erstellung bieten sich folgende Optionen:
- SMB-Freigaben für Windows-Umgebungen
- NFS-Freigaben für plattformübergreifende Szenarien
- Aktivierung von SMB Encryption oder NFS-Kerberos bei Bedarf
Berechtigungskonzepte
Ein klar strukturiertes Berechtigungskonzept ist entscheidend, um Zugriff zu kontrollieren und ungewollte Änderungen zu verhindern. Ein bewährter Ansatz in Active-Directory-Umgebungen ist das AGDLP-Prinzip:
- Accounts → Global Groups → Domain Local Groups → Permissions (Ressource)
- Benutzer:innen werden Globalen Gruppen zugeordnet
- Diese werden in Lokale Domänengruppen eingetragen, die wiederum Berechtigungen auf Freigaben oder Ordner erhalten
Vorteile:
- Einfachere Pflege bei großen Umgebungen
- Klare Trennung von Benutzer- und Berechtigungsverwaltung
- Übersichtliche Delegation von Administrationsaufgaben
Alternativ können vereinfachte Modelle genutzt werden, z.B. direkte Zuweisung von Benutzergruppen an Ressourcen – was aber bei wachsender Infrastruktur schnell unübersichtlich wird.
Zusammenspiel von NTFS- und Freigabeberechtigungen
In Windows Server wirken NTFS-Berechtigungen und Freigabeberechtigungen zusammen:
- Freigabeberechtigungen regeln den Zugriff über das Netzwerk
- NTFS-Berechtigungen definieren den Zugriff auf Dateisystemebene
Empfehlung: Freigabeberechtigungen meist auf Jeder – Vollzugriff setzen und den Zugriff ausschließlich über NTFS-Berechtigungen steuern. So bleibt die Berechtigungsstruktur konsistent und nachvollziehbar.
Verwaltung mit PowerShell
Gerade in großen Umgebungen oder bei wiederkehrenden Aufgaben bietet PowerShell effiziente Verwaltungsoptionen:
# Neue SMB-Freigabe erstellen
New-SmbShare -Name 'Projekte' -Path 'D:\Projekte' -FullAccess 'DL_Projekte_RW'
# Berechtigungen abfragen
Get-SmbShareAccess -Name 'Projekte'
Diese Vorgehensweise erleichtert Automatisierung und Dokumentation von Änderungen.
Praxis-Hinweis
Unabhängig vom verwendeten Protokoll gilt: Eine gut dokumentierte Berechtigungsstruktur ist nicht nur für den laufenden Betrieb wichtig, sondern auch im Falle von Audits oder Sicherheitsvorfällen unverzichtbar.
Backup, Recovery und Ransomware-Schutz
Selbst die leistungsfähigste Storage-Infrastruktur ist nur so gut wie die Strategien, die zu ihrem Schutz eingesetzt werden. Windows Server 2025 bietet integrierte Funktionen für Backup und Wiederherstellung, die sich sowohl alleinstehend als auch in Kombination mit professionellen Drittanbieter-Lösungen einsetzen lassen.
Ein besonderer Fokus liegt dabei auf Schutz vor Ransomware und der schnellen Wiederherstellung im Notfall.
Windows Server Backup
Das integrierte Windows Server Backup (WSB) ist für kleine bis mittelgroße Umgebungen oder einzelne Serverrollen geeignet. Es unterstützt vollständige und inkrementelle Sicherungen auf lokale oder netzwerkbasierte Ziele.
Vorteile sind die enge Integration in Windows und die einfache Bedienung.
Für große Infrastrukturen oder komplexe Szenarien stößt es jedoch schnell an seine Grenzen.
VSS – Volume Shadow Copy Services
Volume Shadow Copy Services (VSS) ermöglichen das Erstellen konsistenter Snapshots von Volumes, ohne den laufenden Betrieb zu unterbrechen. Diese Technologie bildet die Grundlage für viele Backup- und Replikationslösungen.
Besonders praktisch: VSS kann auch genutzt werden, um Benutzer:innen den Eigenzugriff auf frühere Dateiversionen zu ermöglichen – ein einfacher, aber wirkungsvoller Schutz gegen versehentliches Löschen.
Immutable Storage und WORM-Volumes
Für besonders kritische Daten lassen sich WORM-Volumes (Write Once, Read Many) einrichten, auf denen einmal geschriebene Daten nicht mehr verändert oder gelöscht werden können. In Windows Server wird dies oft über spezielle Dateisystem-Features oder in Verbindung mit Azure Immutable Blob Storage umgesetzt.
Solche Mechanismen sind ein wirksamer Baustein gegen gezielte Manipulationen durch Schadsoftware.
Storage Migration Service
Mit dem Storage Migration Service lassen sich Datenbestände von älteren Systemen auf neue Server migrieren – inklusive Freigaben, Berechtigungen und Metadaten.
Der Vorteil: Migrationen können nahezu ohne Ausfallzeiten durchgeführt werden, was gerade bei kritischen Fileservern enorm wertvoll ist.
Schutz vor Ransomware
Ransomware-Angriffe zielen gezielt auf produktive Daten und oft auch auf Backups. Neben klassischen Maßnahmen wie Netzwerksicherheit und Benutzeraufklärung sind im Storage-Kontext besonders wichtig:
- Frühzeitige Erkennung ungewöhnlicher Dateiaktivitäten (z.B. über Security-Lösungen oder SIEM)
- Getrennte Backup-Ziele (physisch oder logisch isoliert)
- Regelmäßige Testwiederherstellungen, um im Ernstfall schnell reagieren zu können
- Unveränderliche Sicherungen (Immutable Backups)
Praxis-Hinweis
Backups sind nur dann wertvoll, wenn sie auch wiederhergestellt werden können. Ein regelmäßiger Restore-Test sollte daher fester Bestandteil jeder Backup-Strategie sein – egal, ob mit Bordmitteln oder Drittanbieter-Lösungen gearbeitet wird.
Monitoring und Performance
Die kontinuierliche Überwachung der Speicherinfrastruktur ist entscheidend, um Leistungseinbußen frühzeitig zu erkennen, Engpässe zu vermeiden und potenzielle Fehlerquellen proaktiv zu beheben. Windows Server 2025 stellt dafür sowohl klassische Werkzeuge als auch moderne, visuell aufbereitete Dashboards bereit.
Performance Monitor (PerfMon)
Der Performance Monitor ist ein bewährtes Tool, um detaillierte Leistungsdaten zu sammeln und zu analysieren.
Mit vordefinierten oder benutzerdefinierten Countern lassen sich gezielt Metriken erfassen, darunter:
- CPU- und Speicherauslastung in Storage-bezogenen Prozessen
- Latenzzeiten pro Datenträger
- Lese- und Schreibgeschwindigkeit (IOPS, MB/s)
- Warteschlangenlänge der Speicherzugriffe
Die gesammelten Daten können in Langzeitprotokollen gespeichert werden, um Trends zu erkennen und Kapazitätsplanungen zu unterstützen.
DiskSpd – Lasttests für Speicher
DiskSpd ist ein Microsoft-Tool für synthetische Lasttests. Es eignet sich hervorragend, um die Leistungsfähigkeit von Speichersystemen unter kontrollierten Bedingungen zu ermitteln.
Typische Einsatzszenarien:
- Analyse von I/O-Profilen für spezifische Anwendungen
- Ermittlung der Auswirkungen von Änderungen in Hardware oder Treibern
- Vergleich von Storage-Konfigurationen vor Produktivnahme
Windows Admin Center – Storage-Dashboards
Das Windows Admin Center bietet integrierte Dashboards, die den Zustand und die Leistung von Speicherpools, Storage Spaces Direct-Clustern und einzelnen Volumes visualisieren.
Diese Oberfläche ist besonders hilfreich für:
- Echtzeitüberwachung der Speicherauslastung
- Erkennung von fehlerhaften Laufwerken oder Engpässen
- Integration in Azure Monitor für Hybrid-Umgebungen
Storage QoS – Quality of Service
Mit Storage QoS lassen sich IOPS-Grenzwerte und Prioritäten für virtuelle Datenträger festlegen. Dies ist besonders in virtualisierten Umgebungen nützlich, um „Noisy Neighbors“ – also einzelne Workloads, die übermäßig viele Ressourcen beanspruchen – zu verhindern.
Die Microsoft-Dokumentation zu Storage QoS beschreibt, wie sich diese Funktion in Hyper-V- und S2D-Umgebungen optimal einsetzen lässt.
Praxis-Hinweis
Effektives Monitoring kombiniert Echtzeitüberwachung mit historischer Analyse. So lassen sich nicht nur aktuelle Probleme lösen, sondern auch zukünftige Anforderungen besser vorhersagen – ein entscheidender Vorteil bei wachsender Storage-Nutzung.

Exkurs: Storage QoS in der Praxis – Ressourcen fair verteilen
Storage Quality of Service (QoS) ermöglicht es, I/O‑Ressourcen zwischen virtuellen Datenträgern gezielt zu steuern. So lassen sich Noisy Neighbors – also Workloads, die überproportional viele Speicheroperationen beanspruchen – effektiv ausbremsen, um andere Anwendungen zu schützen.
Funktionsprinzip
- Administrator:innen können IOPS-Limits (Input/Output Operations per Second) und IOPS-Mindestwerte für einzelne virtuelle Festplatten (VHDX) festlegen
- Bei Hyper-V-Umgebungen lässt sich Storage QoS clusterweit anwenden, um Ressourcen über mehrere Hosts hinweg zu koordinieren
Konfigurationsbeispiel
Per PowerShell lässt sich Storage QoS einfach konfigurieren:
# Limit von 500 IOPS für eine VM-Festplatte setzen Set-VMHardDiskDrive -VMName 'SQLServer01' ` -ControllerType SCSI -ControllerNumber 0 ` -ControllerLocation 0 -MinimumIOPS 100 ` -MaximumIOPS 500
In diesem Beispiel wird die VM-Festplatte auf maximal 500 IOPS begrenzt und gleichzeitig ein Minimum von 100 IOPS garantiert.
Best Practices
- Analyse vor Limitierung: Vor dem Setzen von Limits Workload-Profile erfassen, um keine kritischen Anwendungen auszubremsen
- Clusterweite Koordination: Bei S2D-Clustern die Scale-Out File Server (SOFS)-Integration nutzen, um QoS für SMB-Workloads zu steuern
- Monitoring kombinieren: Performance-Daten über Windows Admin Center oder Get-StorageQosFlow auswerten, um Engpässe frühzeitig zu erkennen
- QoS-Profile nutzen: In großen Clustern einheitliche Profile für ähnliche Workloads anlegen
Praxis-Hinweis
Storage QoS ist kein Ersatz für physikalische Performance-Optimierung. Es ist vor allem ein Werkzeug zur Fairness, damit keine einzelne Workload die gesamte Storage-Performance monopolisiert.
Cloud- und Hybrid-Szenarien
Storage-Strategien enden heute selten an der physischen Servergrenze. Mit Windows Server 2025 lassen sich lokale Speicherressourcen nahtlos in Hybrid- und Cloud-Szenarien integrieren.
Microsoft bietet dafür eine enge Verzahnung mit Azure-Diensten, um Flexibilität, Skalierbarkeit und Ausfallsicherheit zu erhöhen.
Azure File Sync
Azure File Sync ermöglicht es, Dateiserverinhalte zwischen On-Premises-Servern und Azure Files zu synchronisieren. Dabei können Daten lokal zwischengespeichert und gleichzeitig in Azure gesichert werden.
Vorteile:
- Globale Verfügbarkeit von Daten über mehrere Standorte hinweg
- Reduzierter lokaler Speicherbedarf durch Cloud-Tiering
- Zentralisierte Verwaltung von Freigaben über das Azure-Portal
Praxis-Hinweis
Azure File Sync eignet sich besonders für Unternehmen mit mehreren Niederlassungen, die auf einen gemeinsamen Datenbestand zugreifen müssen, ohne eine komplexe WAN-Infrastruktur aufzubauen.
Azure Blob Storage
Azure Blob Storage ist Microsofts Objektspeicherlösung, die für unstrukturierte Daten wie Backups, Archivdaten oder große Mediendateien optimiert ist.
In Windows Server kann Blob Storage als erweiterter Speicher genutzt werden – z.B. für Backup-Ziele oder zur Archivierung.
Vorteile:
- Integrierte Datenreplikation innerhalb von Azure-Regionen
- Mehrere Zugriffsebenen (Hot, Cool, Archive) für Kostenoptimierung
- Nahezu unbegrenzte Skalierbarkeit
Hybrid-Backup mit Azure Backup
Azure Backup bietet eine sichere und skalierbare Möglichkeit, lokale Datenbestände ohne eigene Hardware in der Cloud zu sichern. Es unterstützt Anwendungs- und dateibasierte Backups sowie Bare-Metal-Recoveries.
Besonders interessant: Die Backups werden verschlüsselt übertragen und gespeichert, ohne dass eine separate VPN-Verbindung notwendig ist.
Vorteile:
- Flexible Aufbewahrungszeiträume
- Schutz vor Ransomware durch Immutable Backup-Optionen
- Zentrale Verwaltung aller Backup-Jobs im Azure-Portal
AKS-Storage-Best-Practices
In Kombination mit Azure Kubernetes Service (AKS) kann Windows Server als Speicher-Backend für Container-Workloads dienen. Microsoft empfiehlt in den AKS Operator Best Practices – Storage:
- Auswahl passender Storage-Klassen je nach IOPS-Anforderungen
- Berücksichtigung von Backup- und Disaster-Recovery-Strategien für Container-Daten
- Verwendung von Managed Disks oder Azure Files für persistente Volumes
Praxis-Hinweis
Der Schlüssel zu erfolgreichen Hybrid-Storage-Szenarien liegt in einer klaren Architekturentscheidung: Welche Daten bleiben lokal, welche wandern in die Cloud und welche werden redundant in beiden Welten gehalten? Nur so lassen sich Kosten, Performance und Sicherheit in Einklang bringen.
Fazit
Windows Server 2025 bringt im Bereich Storage zahlreiche Verbesserungen, die Administrator:innen und Architekt:innen neue Möglichkeiten eröffnen – von der modernen Verwaltung mit Windows Admin Center und Azure Arc bis zu optimierten Hochverfügbarkeits- und Replikationsfunktionen.
Besonders hervorzuheben sind:
- Erweiterte Storage Spaces Direct-Funktionen und klare Hardwareanforderungen
- Verbesserungen bei ReFS für Integrität und Performance
- Moderne Protokolle wie SMB over QUIC für sicheren, schnellen Zugriff ohne VPN
- Effiziente Speicheroptimierung durch Datendeduplizierung
- Umfangreiche Monitoring- und Performance-Tools, u. mit DiskSpd und Storage QoS
- Integration von Cloud- und Hybrid-Storage mit Azure File Sync und Azure Blob Storage
Der Beitrag zeigt, dass eine zukunftssichere Storage-Strategie in Windows Server 2025 nicht nur lokale Ressourcen im Blick haben sollte, sondern auch Cloud-Integration, Sicherheit, Performance und Automatisierung als gleichwertige Säulen begreift. Wer diese Möglichkeiten gezielt kombiniert, kann eine Speicherinfrastruktur schaffen, die leistungsstark, flexibel und langfristig skalierbar ist.
Quellenverzeichnis
(abgerufen am 06.08.2025)
Microsoft-Dokumentationen
- Neuigkeiten in Windows Server 2025 – Storage
- AKS Operator Best Practices – Storage
- Azure Well-Architected Framework – Blob Storage
- Block Cloning
- Data Deduplication Overview
- Integrity Streams
- Mirror-Accelerated Parity
- ReFS – Übersicht
- refsutil
- SMB over QUIC
- Storage Migration Service – Übersicht
- Storage QoS – Übersicht
- Storage Replica – Übersicht
- Storage Spaces Direct – Bereitstellung
- Storage Spaces Direct – Hardwareanforderungen
- Storage Spaces Direct – Übersicht
Technische Artikel und Blogs
- ComputerWeekly: Storage Spaces Direct Datenträger in Pools zusammenfassen
- Dell: Microsoft Storage Spaces Best Practices
- Microsoft: Storage – Überblick
- Microsoft: Windows Server 2025 – Storage Performance mit DiskSpd
Weiterführend / Historie