Wie alles begann: Netzwerke als stille Revolution
Wenn wir heute von Netzwerken sprechen, denken viele an schnelles WLAN, Cloud-Zugriffe, VPNs oder die Verbindung zwischen Büro und Rechenzentrum. Was oft vergessen wird: Netzwerkkommunikation ist eine der fundamentalen Säulen der modernen IT – und ihre Geschichte reicht deutlich weiter zurück, als viele vermuten.
Schon lange vor Begriffen wie Cloud oder Zero Trust war der Gedanke simpel und visionär zugleich: Rechner sollen miteinander sprechen können. Doch was heute selbstverständlich erscheint, war in den Anfangsjahren ein technisches Abenteuer – geprägt von manuellen Kabelverbindungen, inkonsistenten Protokollen und einer Vielzahl inkompatibler Lösungen.
Dieser Artikel lädt zu einer Reise ein: Von den ersten seriellen Leitungen der Nachkriegszeit über proprietäre Systeme der 70er und 80er Jahre bis hin zur heutigen Welt hochperformanter, mikrosegmentierter Netzwerke. Dabei beleuchten wir, was Kommunikation in Netzwerken ausmacht, warum Standards wie Ethernet und TCP/IP zum Durchbruch führten – und welche Rolle Firmen wie Cisco und Microsoft in der Geschichte spielten.
Ziel ist ein fundierter, praxisnaher Einstieg in die Netzwerkkommunikation: anschaulich erklärt für Einsteiger:innen, dabei technisch belastbar und anschlussfähig für angehende Fachinformatiker:innen.
Rückblick: Die Anfänge der Netzwerkkommunikation ab 1945
Rechnen ohne Verbindung – und die Notwendigkeit der Vernetzung
In den frühen Tagen der elektronischen Datenverarbeitung waren Rechner in sich geschlossene Systeme. Großrechner wie der ENIAC oder der Zuse Z3 verarbeiteten Daten sequenziell und isoliert – eine Kommunikation zwischen Maschinen war nicht vorgesehen. Erst mit der steigenden Anzahl von Rechensystemen wuchs das Bedürfnis, Informationen effizient zwischen ihnen auszutauschen.
Was in Laboren begann, gewann schnell sicherheitspolitische Relevanz. In Zeiten des Kalten Krieges war verteilte Kommunikation eine strategische Notwendigkeit – Stichwort: Redundanz und Ausfallsicherheit. Dies führte zur Konzeption des ARPANET, das 1969 erstmals eine paketbasierte Rechnervernetzung über längere Distanzen realisierte. Spätestens hier begann sich das Denken zu verändern: Kommunikation war nicht länger ein reines I/O-Thema – sie wurde zur architektonischen Disziplin.

Exkurs: Zuse Z3 vs. ENIAC – Waren das wirklich Computer?
Wenn man nach den ersten Computern fragt, fallen oft zwei Namen: der Zuse Z3 (1941) und der ENIAC (1945/46). Beide Systeme gelten als Meilensteine – und doch ist die Bezeichnung Computer in beiden Fällen nicht ganz unproblematisch.
Was ist überhaupt ein Computer?
Der Begriff Computer meint heute mehr als nur eine Rechenmaschine. In der theoretischen Informatik wird ein echtes Computersystem durch mehrere Eigenschaften definiert:
- Digitalität: Verarbeitung erfolgt in klaren, unterscheidbaren Zuständen (z.B. 0 und 1).
- Binäres Zahlensystem: Grundlage aller Rechenoperationen ist das Binärsystem.
- Turingmächtigkeit: Das System kann jede berechenbare Funktion simulieren – mit Speicher, Entscheidungslogik und Kontrollfluss.
- Programmierbarkeit: Es ist nicht auf eine feste Funktion beschränkt, sondern durch ein veränderbares Programm steuerbar.
Zuse Z3 – Der erste frei programmierbare Rechner
Konrad Zuses Z3 wurde 1941 in Berlin vorgestellt – und gilt nach heutiger Einschätzung als der erste funktionsfähige, frei programmierbare Rechner weltweit. Er arbeitete binär, mit gleitender Kommazahlendarstellung, und war vollständig digital – allerdings auf der elektromechanischen Basis von Relais.
Ein entscheidender Punkt: Die Z3 war nicht turingmächtig – ihr fehlte die Möglichkeit, bedingte Sprünge (If-Then-Else) auszuführen. Programme konnten linear abgearbeitet, aber nicht auf logische Bedingungen hin gesteuert werden. Dennoch: Die Architektur war wegweisend, und mit modernen Erweiterungen (etwa einem bedingten Sprung) ließe sich Turing-Vollständigkeit nachrüsten – was Zuse selbst später auch zeigte.
ENIAC – Der erste elektronische Universalrechner
Der amerikanische ENIAC (Electronic Numerical Integrator and Computer), 1945 in Betrieb genommen, war dagegen voll elektronisch – mit über 17.000 Vakuumröhren. Anders als die Z3 arbeitete der ENIAC dezimal statt binär, war allerdings durch geschickte Schaltungstechnik in der Lage, komplexe Rechenoperationen effizient durchzuführen.
Die programmierbare Struktur des ENIAC war jedoch zunächst sehr eingeschränkt: Programme mussten durch Umstecken von Kabeln und das Setzen von Schaltern physisch konfiguriert werden – eine echte Programmiersprache gab es nicht. Erst mit späteren Erweiterungen (dem sogenannten stored program concept) kam eine turingmächtige Architektur zum Tragen.
Fazit: Frühe Rechner – fast Computer, aber nicht ganz
Sowohl Z3 als auch ENIAC waren für ihre Zeit bahnbrechend – aber aus Sicht moderner Informatik keine vollwertigen Computer im engeren Sinn. Ihnen fehlten bestimmte Kernmerkmale, die wir heute mit Universalcomputern verbinden: flexible Speicherverwaltung, logische Kontrollstrukturen, symbolische Programmierung.
Trotzdem legten beide Systeme den Grundstein für die spätere Entwicklung – und beeinflussten die Netzwerkkommunikation maßgeblich. Denn erst mit dem Aufkommen programmierbarer Maschinen wurde die Idee denkbar, dass mehrere Systeme miteinander kooperieren – über definierte Protokolle, Adressierung und strukturierte Datenströme.
Die proprietäre Phase – viele Hersteller, viele Wege
In den 1970er- und frühen 1980er-Jahren war die Welt der Netzwerke noch stark fragmentiert. Jeder größere Hersteller verfolgte eigene Ansätze:
- IBM setzte auf SNA (Systems Network Architecture) – ein hierarchisches Modell mit zentralisierter Kontrolle.
- DEC entwickelte DECnet – effizient, aber stark an die eigene Hardware gebunden.
- AppleTalk, Xerox NCP, Novell NetWare – jedes System brachte sein eigenes Protokoll-Ökosystem mit.
Auch Microsoft positionierte sich früh, etwa mit MS-NET, einem frühen Netzwerkdienst für DOS-basierte Systeme. In den 90er-Jahren legte Microsoft dann mit Windows NT 3.5x und später mit Windows 2000 den Grundstein für integrierte Netzwerke in Unternehmensumgebungen – insbesondere mit der Einführung von Active Directory, das auf dem LDAP-Protokoll basiert und eng mit DNS und Kerberos verzahnt ist.
Der Bedarf nach Standards – und die Geburt von Ethernet
Angesichts der Vielzahl inkompatibler Technologien entstand ein wachsender Druck zur Standardisierung. Der Durchbruch gelang mit einem kleinen, aber revolutionären Protokoll: Ethernet, entwickelt 1973 im Xerox PARC. In Zusammenarbeit mit Intel und DEC wurde Ethernet 1980 als offener Standard veröffentlicht – und später vom IEEE als 802.3 spezifiziert. Was ursprünglich mit Koaxialkabeln begann, wurde zur weltweit erfolgreichsten LAN-Technologie – und ist es bis heute.
Parallel dazu entwickelte sich TCP/IP – zunächst als robustes Protokoll für das ARPANET, später zum Herzstück des globalen Internets. Anders als viele proprietäre Lösungen war TCP/IP modular, fehlertolerant und offen dokumentiert – ein entscheidender Vorteil.
Währenddessen gründete sich 1984 ein kleines Unternehmen mit dem Ziel, Netzwerke einfacher und leistungsfähiger zu machen: Cisco Systems. Was als Router-Firma begann, entwickelte sich zum weltweit führenden Anbieter für Netzwerkhardware und -architektur. Cisco etablierte viele der heute selbstverständlichen Prinzipien: Layered Design, VLANs, OSPF, und nicht zuletzt die Idee einer Switching-Infrastruktur mit kontrollierter Redundanz.
Was ist Kommunikation in einem Netzwerk? – Von der Idee zur Struktur
Stellen wir uns einen Computer vor, der allein in einem Raum steht. Er kann Daten verarbeiten, speichern, vielleicht sogar lokal anzeigen – aber ohne Verbindung zur Außenwelt bleibt sein Informationsaustausch auf Null. Kommunikation beginnt dort, wo Daten einen Adressaten erreichen sollen, der sich außerhalb des eigenen Systems befindet.
Doch was bedeutet das konkret – Kommunikation in einem Netzwerk? Und warum ist sie so vielschichtig?
Die drei Grundkomponenten jeder Netzwerkkommunikation
Jede Kommunikation – ob digital oder analog – beruht auf drei Prinzipien:
- Sender: Ein Gerät, das Informationen erzeugt und übermitteln möchte.
- Empfänger: Ein Gerät, das bereit ist, diese Information zu empfangen und zu verarbeiten.
- Übertragungsmedium: Eine physikalische oder logische Verbindung, über die die Information transportiert wird – sei es Kupfer, Glasfaser, Funk oder ein VLAN.
Das klingt zunächst einfach – doch sobald mehrere Geräte beteiligt sind, wird klar: Es braucht Regeln, Adressen, Protokolle und Mechanismen, um Daten richtig zu steuern. Und genau hier beginnt die Komplexität.
Das OSI-Modell – Schichtenweise Kommunikation verstehen
Netzwerkkommunikation ist komplex – und sie wird noch komplexer, wenn Geräte unterschiedlicher Hersteller, Betriebssysteme und Architekturen miteinander sprechen sollen. Um diese Kommunikation strukturiert beschreibbar und interoperabel zu machen, wurde bereits in den späten 1970er-Jahren das OSI-Modell entwickelt: ein Referenzmodell für Netzwerksysteme, das Kommunikation in sieben klar definierte Schichten gliedert. Im Jahr 1983 wird die Entwicklung abgeschlossen.
OSI steht für Open Systems Interconnection – entwickelt von der ISO (International Organization for Standardization), um weltweit gültige Standards zu schaffen.
Die sieben Schichten des OSI-Modells – in der typisch absteigenden Darstellung:
Warum das Modell so wichtig ist
Das OSI-Modell ist kein konkreter Netzwerkstandard, sondern ein Erklärungsrahmen. Es hilft uns dabei:
- Netzwerkprobleme gezielt zu lokalisieren („Ist es Layer 1 oder Layer 3?“)
- Aufgaben, Verantwortlichkeiten und Geräte zu trennen (Switch = Layer 2, Router = Layer 3)
- Protokolle und Funktionen zu analysieren (z. B. TCP = Layer 4, Ethernet = Layer 2)
Die Trennung der Ebenen erlaubt auch die Entwicklung von offenen Systemen, wie sie u.a. durch IEEE, IETF und Hersteller wie Cisco oder Microsoft vorangetrieben wurden. Genau dieser Ansatz hat dazu beigetragen, dass wir heute globale Interoperabilität erleben – vom Heimrouter bis zum Backbone-Knotenpunkt.
Ein Beispiel
„Wenn ein Anwender auf einem Windows-PC eine Datei über ein Netzlaufwerk (SMB) öffnet, interagiert er mit Layer 7 (Anwendung), während Switches auf Layer 2 den Frame korrekt weiterleiten – und das Ethernet-Kabel auf Layer 1 die physikalische Verbindung ermöglicht.“
Fokus dieses Beitrags
In diesem Beitrag konzentrieren wir uns auf die unteren beiden Schichten:
- Layer 1 – die physikalische Übertragung: Kabel, Hubs, Signale
- Layer 2 – die logische Verbindung: MAC-Adressen, Switching, Frame-Handling
Alles, was darüber liegt – also Adressierung, Routing, Ports, Protokolle – behandeln wir in einem folgenden Beitrag, der sich explizit mit TCP/IP, IPv4/IPv6 und Layer 3+4 befassen wird.
Die Herausforderung der Vielschichtigkeit
Ein simples Beispiel: Ein Benutzer klickt in seinem Browser auf eine Website. Was in Bruchteilen von Sekunden geschieht, ist das Ergebnis einer ganzen Kette von Kommunikationsschritten:
- Der Browser löst einen DNS-Namen in eine IP-Adresse auf.
- Ein TCP-Socket wird geöffnet – inklusive Handshake.
- Die IP-Adresse muss in eine MAC-Adresse übersetzt werden (ARP).
- Ethernet-Frames werden erzeugt, mit Checksummen versehen und auf das physikalische Medium gesendet.
- Der Switch analysiert die Zieladresse und entscheidet, auf welchem Port der Frame weitergeleitet wird.
- Über Router, Gateways und ggf. weitere Switche gelangt das Paket an sein Ziel – und die Antwort folgt denselben Weg zurück.
Jede dieser Aktionen passiert auf einer anderen Ebene der Netzwerkkommunikation – von der Bitübertragungsschicht (Layer 1) bis hin zur Anwendungsschicht (Layer 7). Dieses sogenannte Schichtenmodell wurde später formalisiert – u.a. durch die ISO im OSI-Referenzmodell.
Protokolle – Die Sprache des Netzwerks
Damit Sender und Empfänger sich verstehen, müssen sie dieselbe Sprache sprechen – in der Netzwerktechnik nennen wir diese Sprache Protokolle. Ein Protokoll definiert:
- Datenformate (z. B. Header, Payload, Checksummen)
- Abläufe und Erwartungen (z. B. ACK/NACK, Timeouts)
- Fehlerszenarien und Wiederholungen
- Adressierung, Segmentierung, Reihenfolge
Beispiele für solche Protokolle sind Ethernet (Layer 2), IP (Layer 3), TCP/UDP (Layer 4), HTTP/HTTPS (Layer 7).
In der Microsoft-Welt war es insbesondere die enge Verzahnung von SMB, NetBIOS, DNS, Kerberos und LDAP, die Windows-Netzwerke effizient, aber auch komplex gemacht hat. Cisco hingegen prägte über Jahrzehnte die Netzprotokoll-Architekturen großer Netzwerke – etwa mit der Unterstützung von OSPF, BGP und VLAN-basierten Layer-2-Mechanismen.
Logisch vs. physikalisch – zwei Sichtweisen auf das Netzwerk
Ein Netzwerk lässt sich aus zwei Perspektiven betrachten:
- Physikalisch: Wie sind Geräte wirklich miteinander verbunden? Über welche Kabel, Switches, WLAN-Access-Points?
- Logisch: Welche Kommunikation ist erlaubt, adressierbar und sinnvoll? Wer darf mit wem, über welche Ports, mit welchem Protokoll sprechen?
Diese Trennung ist essenziell: Ein VLAN z.B. kann zwei Geräte in unterschiedlichen Stockwerken logisch in dasselbe Subnetz bringen – obwohl sie physikalisch weit auseinanderliegen. Ein Paketfilter kann Datenfluss logisch blockieren – obwohl die physikalische Verbindung intakt ist.
Kommunikation ist kein Zufall, sondern Architektur
Netzwerkkommunikation ist kein zufälliges Fließen von Daten – sie ist ein bewusst gestalteter Prozess, der auf Schichten, Protokollen und physikalischen Grundlagen aufbaut. Ohne diese Strukturen würden moderne Netze kollabieren – sei es im Rechenzentrum, in der Cloud oder im Heimnetzwerk.
Die nächste logische Frage ist: Wie lässt sich diese Komplexität bändigen? – Und hier kommen Standards und Referenzmodelle ins Spiel.
Von proprietär zu offen – Wie ISO, IEEE & Co. die Netzwerke befreiten
In den Anfangsjahren der IT war Netzwerkkommunikation in erster Linie eines: eine Einbahnstraße im Herstellersilo. Wer DECnet nutzte, sprach nicht mit IBM SNA. Wer Novell einsetzte, war auf IPX/SPX angewiesen. Und wer Microsoft-Systeme verband, arbeitete mit NetBIOS oder MS-NET – lange bevor TCP/IP Einzug hielt.
Diese Phase war geprägt von Inseln der Konnektivität. Vernetzung bedeutete damals primär: Rechner derselben Plattform miteinander verbinden. Die Folge: hohe Abhängigkeit vom Hersteller, geringe Flexibilität, komplexes Management. Wer mehrere Plattformen betreiben wollte – etwa UNIX-Server, IBM-Großrechner und Windows-Clients – musste tief in die Trickkiste greifen.
Warum offene Standards unverzichtbar wurden
Mit dem Wachstum der IT-Landschaften und der zunehmenden Bedeutung vernetzter Systeme – ob im Unternehmen, in Forschungseinrichtungen oder bei Behörden – wurde schnell klar: Ohne offene, herstellerübergreifende Standards ist nachhaltige Skalierung unmöglich. Interoperabilität, Investitionssicherheit und Zukunftsfähigkeit setzen gemeinsame Spielregeln voraus.
Zwei Entwicklungen trieben diesen Wandel maßgeblich voran:
- das OSI-Referenzmodell der ISO als konzeptionelle Grundlage
- und die Formalisierung technischer Standards durch Organisationen wie IEEE (z. B. Ethernet, WLAN) und IETF (z. B. TCP/IP, DNS)
Gerade das OSI-Modell bot erstmals eine strukturierte Sichtweise auf Netzkommunikation, unabhängig von konkreten Technologien oder Herstellern. Es etablierte sich schnell als Lehr- und Denkmodell – unverzichtbar für Architekturplanung, Fehleranalyse und den herstellerübergreifenden Dialog.
In der praktischen Umsetzung setzten sich jedoch nicht die OSI-Protokolle durch, sondern der TCP/IP-Stack – ein Thema, dem wir uns in einem folgenden Beitrag im Detail widmen werden.
IEEE, IETF und die Geburt technischer Standards
Zentral für die technische Umsetzung offener Standards wurden spezialisierte Organisationen:
- Die IEEE (Institute of Electrical and Electronics Engineers) etablierte sich als Normierungsinstanz für lokale Netze – allen voran das IEEE 802-Projekt, das bis heute Standards wie Ethernet (802.3), WLAN (802.11) oder VLAN (802.1Q) definiert.
- Die IETF (Internet Engineering Task Force) setzte Standards für die Internetprotokollfamilie – insbesondere IP, TCP, UDP, DNS, DHCP, aber auch sicherheitsrelevante Protokolle wie IPsec, TLS oder BGP.
Diese Gremien sind offen, konsensorientiert und herstellerübergreifend – ein entscheidender Unterschied zu früheren, proprietären Standards. Firmen wie Cisco haben aktiv an IETF-RFCs mitgewirkt, während Microsoft sich über Jahre an IEEE-Standards orientierte – etwa beim Ausbau von SMB über TCP/IP oder der Integration von VLAN-Technologie in Windows Server-Netzwerke.
Proprietär lebt – aber nur dort, wo es sinnvoll ist
Auch heute gibt es noch proprietäre Protokolle – etwa Cisco Discovery Protocol (CDP), Microsofts DirectAccess oder bestimmte IP-Telefonie-Implementierungen. Doch sie sind eingebettet in ein offenes Ökosystem und in der Regel abwärtskompatibel oder dokumentiert.
Die Strategie lautet: offene Standards als Rückgrat, herstellerspezifische Erweiterungen dort, wo sie einen funktionalen Mehrwert bieten. Der Erfolg von Technologien wie Ethernet, TCP/IP oder 802.1X zeigt: Standardisierung bedeutet nicht Stillstand, sondern Verlässlichkeit.
Standards sind die stille Grundlage moderner Netzwerke
Ohne IEEE 802.3 gäbe es kein Ethernet. Ohne RFC 791 kein IP. Und ohne das OSI-Modell keine gemeinsame Sprache für Netzwerktechnik. Erst durch diese offenen Standards wurde Netzwerktechnologie austauschbar, planbar und zukunftssicher – die Voraussetzung für jede moderne IT-Architektur, ob lokal, hybrid oder cloudbasiert.
Im nächsten Schritt werfen wir nun einen praxisnahen Blick auf die Abläufe der Kommunikation im Ethernet: Broadcast, Unicast, MAC-Tabellen und typische Kommunikationsmuster in lokalen Netzen.
Wie funktioniert Kommunikation im Ethernet? – Von Broadcasts, Unicasts und Adressierung
Nachdem wir nun verstanden haben, warum offene Standards die Basis moderner Netzwerke bilden, wird es Zeit, einen praxisnahen Blick in das Innere eines typischen lokalen Netzwerks zu werfen. Im Zentrum steht dabei ein Protokoll, das aus der Netzwerktechnik nicht wegzudenken ist: Ethernet.
Ob zuhause, im Büro oder im Rechenzentrum – Ethernet dominiert als Übertragungsverfahren auf Layer 2 (Sicherungsschicht) der OSI-Architektur. Doch wie kommunizieren Geräte eigentlich innerhalb eines Ethernet-Netzes? Wer spricht wann mit wem – und woher weiß ein Netzwerkgerät überhaupt, wohin es Daten senden soll?

Exkurs: Über Ethernet und Token Ring – Warum nicht immer der Beste gewinnt
Wenn man sich heute in der Netzwerktechnik umsieht, könnte man meinen: Ethernet war schon immer der Standard. Doch die Geschichte hätte auch ganz anders verlaufen können. In den 1980er- und frühen 90er-Jahren war Token Ring, vorangetrieben von IBM, technologisch überlegen – zumindest auf dem Papier.
Token Ring: Technisch elegant, aber wirtschaftlich unflexibel
Token Ring nutzte ein Token-basiertes Zugriffsverfahren, das Kollisionen vollständig verhinderte und deterministische Netzlastverteilung ermöglichte. Eine sprechende Station benötigte ein Token – war keines im Umlauf, blieb der Bus ruhig. Diese Struktur war insbesondere in hochsensiblen Industrie- und Finanzumgebungen attraktiv. Auch die Fehlerdiagnose war durch die Ringstruktur präzise möglich.
Doch Token Ring hatte zwei entscheidende Nachteile:
- Kosten und Komplexität: Die IBM-typische Implementierung setzte auf spezialisierte, teure Hardware und proprietäre Steuerungselektronik.
- Skalierung und Flexibilität: Der Aufbau war empfindlich gegenüber Topologieänderungen und physikalischen Störungen im Ring.
Ethernet: Einfach, günstig – und unkontrolliert?
Ethernet, ursprünglich auf Koaxialkabeln wie dem berüchtigten Cheapernet (10BASE2) betrieben, war bei weitem nicht so elegant. Es setzte auf das CSMA/CD-Verfahren (Carrier Sense Multiple Access with Collision Detection) – eine Art „Wer zuerst spricht, muss aufpassen, dass niemand anderes gleichzeitig spricht“. Bei mehreren Stationen konnte es zu Kollisionen kommen, die durch Wartezeiten und zufällige Wiederholungen aufgelöst wurden.
Technisch war das weniger vorhersehbar und schwerer deterministisch zu steuern als Token Ring – aber es war:
- deutlich günstiger,
- einfach zu implementieren,
- und herstellerunabhängig standardisiert.
Insbesondere kleine Unternehmen und Bildungseinrichtungen griffen zu günstiger Ethernet-Technik, um Netze zu errichten – meist auf Basis günstiger Netzwerkkarten und Koax-Verkabelung im Büro.
Der Durchbruch kam mit dem Switch
Was letztlich zum Siegeszug von Ethernet führte, war nicht nur der Kostenfaktor – sondern die technologische Weiterentwicklung zur geswitchten Struktur, die in späteren Abschnitten dieses Artikels noch im Detail beleuchtet wird. Mit dem Aufkommen von Ethernet-Switches in den 1990er-Jahren fiel der größte Nachteil – die Kollisionen – schlagartig weg. Die Netzkommunikation wurde mikrosegmentiert, voll-duplex und skalierbar.
Ab diesem Zeitpunkt war Token Ring faktisch erledigt – auch wenn es in industriellen Umfeldern noch bis weit in die 2000er-Jahre betrieben wurde. Ethernet setzte sich weltweit durch – nicht, weil es besser war, sondern weil es offen, günstig, flexibel und entwicklungsfähig war.
Broadcast, Unicast, Multicast – Kommunikationsformen im LAN
Im Ethernet-Netzwerk gibt es grundsätzlich drei Formen der Adressierung:
- Unicast: Eine eindeutige Kommunikation von einem Sender an genau einen Empfänger. Der häufigste Fall – z.B. beim Abruf einer Website oder dem Zugriff auf einen Fileserver.
- Broadcast: Eine Nachricht wird an alle Geräte im gleichen Layer-2-Segment gesendet. Dies geschieht z.B. bei der ARP-Anfrage („Wer hat IP 192.168.1.1?“) oder beim ersten DHCP-Request („Gibt es hier einen Server?“).
- Multicast: Eine Nachricht wird an eine definierte Gruppe von Empfängern gesendet – oft verwendet bei Streaming-Anwendungen, Routingprotokollen (OSPF, EIGRP) oder bei bestimmten Microsoft-Diensten (z.B. WSUS).
Jede dieser Formen hat spezifische Einsatzzwecke – und Auswirkungen auf die Netzlast. Während Unicast gezielt ist, kann übermäßiger Broadcast-Traffic die Netzleistung beeinträchtigen, weshalb moderne Switches und Netzwerkarchitekturen Broadcast-Domänen bewusst segmentieren – etwa durch VLANs oder Routing.
Die Rolle der MAC-Adresse
Im Ethernet basiert die Adressierung nicht auf IPs, sondern auf sogenannten MAC-Adressen (Media Access Control). Diese 48 Bit langen Adressen sind eindeutig (theoretisch) und werden jeder Netzwerkkarte vom Hersteller zugewiesen – z.B.:
00:1A:2B:3C:4D:5E
Ein Unicast-Frame im Ethernet enthält:
- Eine Quell-MAC-Adresse (Sender)
- Eine Ziel-MAC-Adresse (Empfänger)
- Einen Typen-Header (z.B. IPv4, ARP)
- Den Dateninhalt (Payload)
- Eine Prüfsumme (FCS – Frame Check Sequence)
Der Switch erkennt anhand der Zieladresse, wohin der Frame gesendet werden soll – oder ob es sich um einen Broadcast handelt.
Wie findet ein Gerät die MAC-Adresse des Empfängers?
Hier kommt das Protokoll ARP (Address Resolution Protocol) ins Spiel. Ein typisches Beispiel:
- Der PC von Benutzer A möchte mit 192.168.1.1 kommunizieren.
- Er kennt jedoch nur die IP – nicht die zugehörige MAC.
- Der PC sendet einen ARP-Broadcast: „Wer hat 192.168.1.1?“
- Das Zielgerät antwortet mit seiner MAC-Adresse – diese wird im lokalen ARP-Cache gespeichert.
- Der Unicast-Verkehr kann nun beginnen.
Microsoft-Netzwerke nutzen zusätzlich intern NetBIOS Name Resolution oder LLMNR, wenn kein DNS zur Verfügung steht – diese Mechanismen basieren ebenfalls auf Broadcast-Anfragen.
Was passiert im Switch? – MAC-Learning in Aktion
Ein moderner Ethernet-Switch analysiert jeden ankommenden Frame und lernt dabei:
- Von welchem Port eine bestimmte Quell-MAC-Adresse stammt
- Wohin Frames mit bestimmten Zieladressen geleitet werden sollen
Diese Informationen speichert der Switch in einer MAC-Adress-Tabelle (CAM-Tabelle). Wenn ein Ziel unbekannt ist, wird der Frame zunächst als Flooding an alle Ports (außer dem Ursprungsport) gesendet – vergleichbar mit einem gerichteten Broadcast. Sobald der Empfänger antwortet, ist seine MAC-Adresse dem Switch bekannt – der weitere Verkehr läuft gezielt.
Bei Cisco-Switches lässt sich dieses Verhalten auslesen und gezielt konfigurieren, z.B. über show mac address-table oder Sicherheitsfunktionen wie Port Security.
Beispiel: Ein HTTP-Request im lokalen Netzwerk
Betrachten wir die Kette vom Client zum Server in einem typischen Intranet:
- Der Benutzer gibt intranet.firma.local ein – DNS löst diesen FQDN (Fully Qualified Domain Name) zur IPv4-Adresse 192.168.10.5 auf.
- Der Client prüft: Kennt er die MAC zu 192.168.10.5?
- Falls nein: ARP-Request à MAC-Adresse ermitteln
- Ein Ethernet-Frame mit Ziel-MAC AA:BB:CC:DD:EE:FF (als Beispiel) wird erzeugt und über das Netz gesendet
- Der Switch erkennt anhand seiner Tabelle: Ziel ist Port 5
- Das Zielsystem empfängt die Daten, verarbeitet die HTTP-Anfrage und antwortet – dieselbe Logik in umgekehrter Richtung
Ethernet ist einfach – und doch leistungsfähig
Die Prinzipien der Ethernet-Kommunikation sind erstaunlich robust. Mit einfachen Mechanismen wie MAC-Adressen, Broadcasts und ARP lässt sich ein funktionierendes lokales Netzwerk aufbauen – skalierbar, sicher und performant. Gleichzeitig bilden sie die Grundlage für komplexere Funktionen wie VLANs, QoS oder Redundanzkonzepte, die wir in späteren Abschnitten behandeln.
Als Nächstes werfen wir einen Blick auf die physikalische und logische Ebene der Netzkommunikation: Was passiert auf Layer 1 und Layer 2 – und warum sind sie so entscheidend für die Performance und Stabilität eines Netzwerks?
Kommunikation auf Layer 1 und Layer 2 – Das Fundament des Netzwerks
Wenn Netzwerke Häuser wären, dann bilden Layer 1 und 2 das Fundament. Unsichtbar für die meisten Nutzer, aber entscheidend für Stabilität, Geschwindigkeit und Skalierbarkeit. Wer sie versteht, versteht nicht nur, wie Daten übertragen werden – sondern auch, warum ein Netzwerk performant oder störanfällig ist.
Layer 1 – Die Bitübertragungsschicht
Layer 1 (Physical Layer) regelt den rein physikalischen Teil der Kommunikation. Hier geht es nicht um Adressen, Frames oder Pakete, sondern um elektrische Signale, Lichtimpulse oder Funkwellen. Diese Schicht ist zuständig für:
- Medium: Kupferkabel, Glasfaser, WLAN
- Signalform: Spannungspegel, Lichtintensität, Funkfrequenz
- Codierung: z.B. Manchester- oder PAM-Codierung (z.B. bei 1000BASE-T)
- Stecker und Normen: RJ45, LC, SC etc.
- Pinbelegung und Duplex-Modus (Half/Full Duplex)
Ein Beispiel: Ein 1-Gigabit-Ethernet-Link (1000BASE-T) nutzt vier Adernpaare gleichzeitig in Voll-Duplex – das ist reine Layer-1-Physik. Ohne korrekte Pinbelegung oder sauberes Kabeldesign (Kategorie 6 oder besser) wird aus einem Gigabit-Link schnell ein „Fallback auf 100 Mbit/s“.
Gerade beim Troubleshooting ist dieses Wissen essenziell: Ein falsch gekrimpter Patchkabelsatz kann einen perfekten Layer-2-Stack nutzlos machen.
Layer 2 – Die Sicherungsschicht und der Rahmen der Kommunikation
Während Layer 1 nur transportiert, beginnt auf Layer 2 die Strukturierung der Daten: Hier entstehen Frames – also definierte Datenrahmen mit Steuerinformationen, Adressierung und Fehlererkennung.
Ein Ethernet-Frame enthält typischerweise:
- Ziel-MAC-Adresse (6 Byte)
- Quell-MAC-Adresse (6 Byte)
- Typenfeld (z.B. IPv4 oder ARP)
- Payload (bis zu 1500 Byte regulär, mit Jumbo Frames deutlich mehr)
- Frame Check Sequence (CRC-basierte Prüfsumme)
Funktionen von Layer 2:
- MAC-Adressierung: Jedes Gerät im LAN benötigt eine eindeutige Adresse
- Framing: Daten werden segmentiert und mit Start- und Endmarkern versehen
- Fehlererkennung: Per FCS (Frame Check Sequence) wird erkannt, ob ein Frame beschädigt ist
- Zugriffssteuerung: Über Methoden wie CSMA/CD oder Switch-Fabric-Logik
Gerade im Windows-Umfeld ist Layer 2 die Basis für viele Dienste – etwa für NetBIOS-Namensauflösung oder die automatische Erkennung von Netzwerkstandorten (Öffentlich / Privat / Domäne).
Layer 1 und 2 im Zusammenspiel – Beispiel aus der Praxis
Ein typisches Szenario aus dem Alltag:
- Ein Client im Netzwerk startet.
- Seine Netzwerkkarte prüft den Link – ist physikalische Verbindung vorhanden? (Layer 1)
- Wenn ja, beginnt der Link Pulse – z.B. Autonegotiation über 100/1000 Mbit/s, Duplex-Modus etc.
- Sobald Layer 1 steht, sendet der Client einen DHCP-Request – ein Broadcast-Frame auf Layer 2
- Der Switch empfängt den Frame, analysiert die Zieladresse (Broadcast), leitet ihn weiter
- Der DHCP-Server antwortet – wieder über Layer 2 und Layer 1 transportiert
Auf Cisco-Geräten lässt sich dieser Prozess detailliert überwachen – etwa über show interfaces, show mac address-table, oder debug dhcp detail.
Herausforderungen und Optimierungen auf Layer 1 und 2
Typische Layer-1-Probleme:
- Defekte oder falsch belegte Kabel
- EMV-Störungen (z.B. durch Leuchtstoffröhren, Aufzugmotoren)
- Schlechte Patchfelder oder überlange Strecken
- Auto-Negotiation-Konflikte (Duplex-Mismatch)
Typische Layer-2-Probleme:
- Doppelte MAC-Adressen (z.B. durch virtuelle Maschinen)
- Broadcast-Stürme
- Falsche VLAN-Zuordnung
- Fehlende Spanning Tree-Konfiguration
Moderne Switche (wie Cisco Catalyst oder Meraki) bieten hier umfangreiche Diagnose-Tools und Layer-2-Optimierungen – etwa PortFast, BPDU Guard oder Storm Control.
Layer 1 und 2 – Technisch unscheinbar, operativ entscheidend
Viele Netzwerkprobleme haben ihre Ursache nicht in Firewalls oder Serverdiensten – sondern ganz banal in der unteren Etage des OSI-Modells. Wer Layer 1 und 2 sauber beherrscht, legt den Grundstein für performante, stabile und skalierbare Netzwerke. Besonders im Zusammenspiel mit Switching und VLANs (siehe Folgeabschnitte) wird deutlich: Eine saubere Schichtung ist kein Theoriekonstrukt – sie ist betriebliche Notwendigkeit.
Von Bus zu Stern – Die Entwicklung der Netzwerktopologie und ihrer Bausteine
Die physikalische und logische Struktur eines Netzwerks – seine Topologie – hat maßgeblichen Einfluss auf Stabilität, Performance und Fehlertoleranz. Lange vor VLANs, Routing und Wi-Fi bestand ein Netzwerk aus einfachen Komponenten: einem Kabel, mehreren T-Stücke, etwas Hoffnung – und vielen Probleme.
Die Bustopologie – Einfach, günstig, störanfällig
In den 1980er- und frühen 90er-Jahren war die Bus-Topologie (insbesondere mit 10BASE2 / Cheapnet) der Standard in kleinen Netzwerken. Alle Rechner hingen an einem einzigen Koaxialkabel, das durch das Büro gelegt wurde – jede Station wurde über ein T-Stück angebunden.
Vorteile:
- Einfach zu installieren
- Günstig im Material
- Keine aktive Komponente notwendig
Nachteile:
- Kollisionen durch gleichzeitiges Senden
- Fehler an einer Stelle (z.B. lose Verbindung) legten das gesamte Netz lahm
- Aufwändige Fehlersuche
- Begrenzte Reichweite und Teilnehmerzahl
In dieser Struktur wurde jeder Datenrahmen physikalisch über den gesamten Bus übertragen – unabhängig davon, ob es sich um einen Unicast, Broadcast oder Multicast handelte. Zwar enthielt der Frame stets eine Zieladresse, doch alle Stationen empfingen und prüften ihn, um zu entscheiden, ob sie angesprochen waren. Das sorgte für hohe Netzlast, potenzielle Kollisionen – und machte das Netzwerk störanfällig. Technisch spannend, betrieblich herausfordernd.
Um Reichweite und Signalqualität in dieser Busstruktur zu verbessern, kamen bald sogenannte Repeater ins Spiel.
Repeater – Das erste aktive Element
Um größere Entfernungen zu überbrücken oder Signalverluste auszugleichen, kamen Repeater zum Einsatz. Sie verstärkten das elektrische Signal – arbeiteten dabei aber transparent: kein Adressieren, kein Prüfen, kein Lernen.
Repeater waren einfache Geräte, die physikalisch schwächer werdende Signale erneut sendeten – rein auf Layer 1, ohne jegliche Analyse der Daten. Sie verlängerten zwar die Reichweite, behoben aber nicht die Probleme der geteilten Übertragungsmedien. In der Praxis: ein leicht zu übersehender, aber wichtiger Schritt in Richtung aktiver Netzwerkintelligenz.
Eine echte Verbesserung brachte erst ein neues Gerätetyp, der nicht nur verstärkte, sondern lernte: die Bridge.
Bridges – Der stille Vorläufer des Switches
Bridges wurden in den späten 1980er-Jahren eingeführt, um größere Netzwerke in logisch getrennte Segmente zu unterteilen, die unabhängig voneinander kommunizieren konnten. Sie arbeiteten auf Layer 2 und analysierten die MAC-Adressen eingehender Frames, um gezielt zu entscheiden, ob ein Frame weitergeleitet oder lokal gehalten werden sollte.
Das zentrale Prinzip: MAC-Learning. Auf Basis der Quell- und Zieladresse eines Frames baut die Bridge eine interne Tabelle auf, die ihr erlaubt, den Datenfluss effizient zu steuern – ganz ohne Routing, aber mit klarer Filterwirkung gegen unnötigen Verkehr.
Die zugrundeliegende Logik ist ebenso einfach wie wirkungsvoll:
„Wenn ich einen Frame über Port A empfange und mein Ziel über Port B erreichbar ist, dann leite ich ihn weiter.“
„Wenn ich den Frame auf Port A empfange und das Zielgerät sich ebenfalls an Port A befindet, unternehme ich nichts – der Frame wird lokal verarbeitet.“
Bridges ermöglichten erstmals eine Segmentierung innerhalb eines gemeinsamen Layer-2-Netzwerks – mit dem Vorteil, dass Kollisionen und unnötiger Datenverkehr zwischen Segmenten reduziert wurden.
Doch trotz dieser Intelligenz blieb das physikalische Problem bestehen: das geteilte Medium des Busnetzes. Die Antwort war ein neues physikalisches Layout – die Sternstruktur – und ein Gerät, das zwar zentral verteilt, aber noch nicht intelligent filtert: der Hub.
Hubs – Der erste Schritt zur zentralen Kopplung
Mit dem Wechsel zu 10BASE-T (Twisted Pair) wurde die Busstruktur zunehmend durch Stern-Topologien ersetzt. Im Zentrum stand zunächst der Hub – ein Gerät, das jedes eingehende Signal an alle Ports weiterleitete. Technisch gesehen war ein Hub nichts anderes als ein Multiport-Repeater: Er empfing ein Signal auf einem Port und sendete es an alle anderen Ports gleichzeitig weiter.
Vorteil: einfache Verkabelung, übersichtliche Struktur
Nachteil: keinerlei Intelligenz – ein Broadcast blieb ein Broadcast, ein Unicast wurde ebenfalls an alle gesendet.
Hubs sind ebenfalls reine Layer-1-Geräte. Es gab keine MAC-Tabellen, keine Filterlogik, keine Segmentierung. Funktional ähnlich dem Bus: jeder hört alles, aber nun sternförmig verkabelt. Der Unterschied war mehr in der Physik als in der Logik – Layer-1 blieb Layer-1.
Erst mit dem Wechsel vom Hub zum Switch wurden intelligente Entscheidungen auf Layer 2 Standard. Nun wurde nicht mehr einfach verteilt – sondern gezielt weitergeleitet.
Switching im Netzwerk – Die Rolle der Mikrosegmentierung
Der Switch kombiniert die physikalische Sternstruktur mit der logischen Intelligenz der Bridge – allerdings auf Multiport-Ebene. Jeder Port bildet eine eigene Kollisionsdomäne, Frames werden gezielt anhand der MAC-Adresse weitergeleitet.
Kollisionen? Geschichte. Vollduplex? Standard.
Mit dem Wechsel zu Switches als zentrale Koppelelemente veränderte sich die Architektur lokaler Netzwerke grundlegend. Die wesentlichen Vorteile:
- Mikrosegmentierung: Jeder Port stellt ein unabhängiges Übertragungssegment dar – ohne geteiltes Medium.
- Vollduplex-Kommunikation: Gleichzeitiges Senden und Empfangen auf jedem Port – ohne Kollision.
- Gezielte Weiterleitung: Frames erreichen nur noch den tatsächlichen Zielport.
- Lernende MAC-Adressierung: Der Switch merkt sich, an welchem Port sich welche Geräte befinden.
Damit wurden echte Layer-2-Infrastrukturen möglich – mit Leistungsreserven, Kontrollfunktionen und einer Skalierbarkeit, die in Bus- oder Hub-basierten Netzen undenkbar war.
Cisco spielte eine zentrale Rolle in dieser Entwicklung: Mit der Einführung von Catalyst-Switches, der konsequenten Umsetzung von VLANs (802.1Q) sowie der Unterstützung von STP (Spanning Tree Protocol) zur Schleifenerkennung und Redundanzabsicherung, schuf Cisco die Grundlage für stabile und verwaltbare Unternehmensnetzwerke.
In Kombination mit Windows-Umgebungen – z.B. für Domänenbetrieb, Active Directory-Replikation oder dateibasierten Zugriff über SMB – bildet der Switch heute das Rückgrat jeder lokalen Infrastruktur.

Exkurs: Von Kalpana zu Cisco – Eine kleine Geschichte des Switches
Heute ist der Begriff Switch aus der Netzwerktechnik nicht mehr wegzudenken. Doch seine Geschichte beginnt nicht bei Cisco, Hewlett-Packard oder IBM – sondern bei einem bis dahin unbekannten Unternehmen mit einem ungewöhnlich persönlichen Namen: Kalpana Inc.
Kalpana – ein technisches Konzept mit persönlicher Note
Die Firma wurde 1989 im kalifornischen Silicon Valley gegründet – unter anderem von dem indischstämmigen Unternehmer Vinod Bhardwaj. Der Name Kalpana hatte dabei doppelte Bedeutung: Er stammt nicht nur aus dem Sanskrit und bedeutet Vorstellungskraft oder kreative Idee, sondern war auch der Vorname von Bhardwajs Ehefrau.
Der erste Ethernet-Switch – eine stille Revolution
Kalpana entwickelte den ersten kommerziell erfolgreichen Ethernet-Switch – den Kalpana EtherSwitch. Anders als Hubs oder Bridges konnte dieses Gerät mehrere Ports gleichzeitig bedienen, dabei MAC-Adressen lernen und Daten zielgerichtet, portgenau und kollisionsfrei weiterleiten. Die Idee: Jeder Port ist eine eigene Kollisionsdomäne – heute bekannt als Mikrosegmentierung.
Zunächst wurde der Ansatz von der Fachwelt unterschätzt – viele hielten das für unnötige Komplexität. Doch als Netzwerke größer und dichter wurden, zeigte sich: Die klassischen Hubs stießen an ihre Grenzen – und Kalpanas Idee setzte sich durch.
Cisco erkennt das Potenzial – und übernimmt Kalpana
Cisco Systems, damals auf Routing-Technologien spezialisiert, erkannte frühzeitig die strategische Tragweite dieses neuen Gerätekonzepts. 1994 übernahm Cisco das Unternehmen Kalpana – und integrierte dessen Switch-Technologie in die eigene Produktlinie. Mit der Einführung der Cisco Catalyst-Serie wurde der Switch endgültig zur tragenden Säule moderner Netzwerkarchitekturen.
Cisco brachte nicht nur die nötige Marktpräsenz mit, sondern ergänzte das Konzept um wesentliche Features: SNMP-Management, VLAN-Support, STP-Integration und Port-Security machten den Catalyst-Switch zum Industriestandard – nicht nur in Enterprise-Umgebungen, sondern auch in Rechenzentren, Bildungseinrichtungen und öffentlichen Infrastrukturen.
Vom Außenseiter zum Standardgerät
Was als kreative Idee eines kleinen Unternehmens begann, wurde durch Ciscos Marktmacht und strategisches Produktdesign zu einem weltweit akzeptierten Standardgerät. Heute ist Switching auf Layer 2 in jedem Netzwerk selbstverständlich – und kaum jemand kennt noch die Ursprünge bei Kalpana.
Vielleicht ist es ein schönes Detail, dass die Technologie, die unsere Netzwerke intelligenter machte, den Namen einer Ehefrau trägt – und gleichzeitig für Kreativität und Weitblick steht.
Ist Backplane gleich Backplane? – Warum es Switches für 20 € und 2.000 € gibt
Für viele Anwender sieht ein Switch auf den ersten Blick unspektakulär aus: mehrere RJ45-Ports, ein Gehäuse, ein Stromanschluss – fertig. Doch wer genauer hinsieht – oder professionell Netzwerke plant – erkennt schnell: Nicht alle Switches sind gleich. Und schon gar nicht gleich leistungsfähig.
Was unterscheidet also einen kleinen günstigen Switch aus dem Elektronikhandel von einem Enterprise-Switch im 19-Zoll-Rack?
Die Backplane – Das unsichtbare Herzstück
Der Begriff Backplane beschreibt die interne Datenverbindung zwischen den Ports eines Switches – quasi das Datenkreuz im Inneren. Eine leistungsfähige Backplane entscheidet darüber, wie viele Daten gleichzeitig und verlustfrei zwischen den Ports transportiert werden können.
Ein Beispiel:
- Ein 8-Port-Gigabit-Switch kann im Voll-Duplex-Betrieb bis zu 16 Gbit/s simultan bewegen (8 Ports × 2 Gbit/s).
- Eine hochwertige Switch-Backplane bietet mindestens die doppelte Bandbreite der theoretischen Maximalbelastung – also in diesem Fall 32 Gbit/s oder mehr.
- Günstige Switches verfügen oft über eine stark limitierte Backplane – mit spürbaren Performanceeinbrüchen bei Parallelverkehr (z.B. bei Backups, VoIP und Videokonferenzen gleichzeitig).
Switching-Kapazität und Weiterleitungsrate
Ein weiteres Unterscheidungsmerkmal ist die Switching-Kapazität – also wie viele Datenpakete der Switch pro Sekunde intern verarbeiten kann.
- Consumer-Switches haben oft keine definierte oder garantierte Weiterleitungsrate.
- Professionelle Geräte bieten Wire-Speed Switching – d.h. sie können alle Ports gleichzeitig mit maximaler Geschwindigkeit bedienen, ohne Frame-Drops oder Warteschlangen.
Je nach Hersteller wird das in Mpps (Million packets per second) oder als Forwarding Rate in Gbps angegeben.
Layer-Funktionalität und Management
Neben der reinen Datenleistung bieten Enterprise-Switches erweiterte Layer-2- und teilweise Layer-3-Funktionalität:
- VLAN-Support (802.1Q)
- Spanning Tree Protocol (STP/RSTP/MSTP)
- Quality of Service (QoS)
- Port-Security, DHCP Snooping, MAC-Filtern
- Multicast-Optimierung (IGMP Snooping)
- SNMP, CLI, WebGUI, REST-API, Logging, Syslog-Anbindung
Diese Funktionen sind in Consumer-Modellen kaum oder gar nicht verfügbar – oder nur in stark vereinfachter Form (z.B. Plug&Play-VLANs).
Cisco, HP Aruba, Lancom, Netgear ProSAFE und andere Anbieter bieten hier modular erweiterbare, zentral verwaltbare Lösungen – oftmals mit redundanter Stromversorgung, Stack-Fähigkeit und Firmware-Management.
Zuverlässigkeit und Redundanzmerkmale
- Hochwertige Komponenten: langlebigere Kondensatoren, temperaturbeständige Platinen
- Lüfterloses vs. aktives Kühlkonzept: im Rack-Einsatz entscheidend
- Redundante Netzteile / Hot-Swap-fähige Komponenten
- Garantiezeiten, Firmwarepflege, Lifecycle-Support
Ein 20-€-Switch ist meist ein Kompromissprodukt für wenig anspruchsvolle Aufgaben – z.B. für den heimischen Arbeitsplatz. In produktiven Netzen, z.B. in Schulen, Behörden oder Rechenzentren, sind solche Geräte keine tragfähige Grundlage.
Einsatzszenarien im Vergleich
Kriterium | Consumer-Switch (20 €) | Enterprise-Switch (2.000 €) |
Anzahl Ports | 5–8 | 24–48, oft modular erweiterbar |
Switching-Kapazität | begrenzt / nicht spezifiziert | Wire-Speed Switching (Mpps garantiert) |
Backplane | häufig shared | hohe Bandbreite, non-blocking |
VLAN-Unterstützung | selten oder rudimentär | voll konfigurierbar, trunk-fähig |
Management | nicht vorhanden | CLI, SNMP, WebGUI, APIs |
Layer 2+ Funktionen | kaum vorhanden | umfangreich (STP, LLDP, IGMP etc.) |
Redundanz | keine | häufig Dual-Netzteile / Stacking |
Einsatzgebiet | Homeoffice, Kleinstnetzwerke | Enterprise, Schulen, Rechenzentren |
Switch ≠ Switch
Der Preisunterschied zwischen einem Consumer- und einem Enterprise-Switch ist nicht kosmetisch – er liegt in Architektur, Managementfähigkeit, Performance und Ausfallsicherheit. Wer Netzwerke entwirft oder betreibt, muss wissen, was unter der Haube steckt – besonders in produktiven Umgebungen.
Im nächsten Abschnitt gehen wir nun auf die internen Arbeitsweisen eines Switches ein: Store-and-Forward, Cut-Through, Fragment-Free und andere Switching-Methoden im Vergleich.
Switching-Methoden im Vergleich – Von Store-and-Forward bis Cut-Through
Ein Switch ist nicht gleich ein Switch – das wissen wir bereits. Doch selbst unter technisch vergleichbaren Geräten unterscheiden sich die Verfahren, mit denen Datenpakete weitergeleitet werden. Diese sogenannten Switching-Methoden beeinflussen Latenz, Fehlertoleranz und die Reaktion auf beschädigte Frames – und sind ein zentraler Aspekt bei der Gerätewahl.
Store-and-Forward – Der klassische Ansatz
Beim Store-and-Forward Switching liest der Switch den kompletten Ethernet-Frame ein, bevor er ihn weiterleitet. Erst wenn der gesamte Frame – inklusive Prüfsumme (FCS) – empfangen und geprüft wurde, entscheidet der Switch, ob und wohin er das Paket weiterleitet.
Vorteile:
- Fehlerkontrolle: Beschädigte Frames werden erkannt und verworfen.
- Zuverlässigkeit: Ideal für Netze mit inkonsistenter Signalqualität oder geringer Redundanz.
- Kompatibel mit unterschiedlichen Leitungsgeschwindigkeiten (Auto-Negotiation)
Nachteile:
- Höhere Latenz: Besonders bei großen Frames (z.B. 1500 Bytes) spürbar.
Store-and-Forward ist der Standardmodus in vielen verwalteten Switches – insbesondere im professionellen Umfeld. Auch Cisco-Switches verwenden diesen Modus standardmäßig in Kombination mit Quality-of-Service-Funktionen.
Cut-Through – Geschwindigkeit vor Kontrolle
Beim Cut-Through Switching beginnt der Switch mit der Weiterleitung eines Frames, sobald die Ziel-MAC-Adresse erkannt wurde – typischerweise nach den ersten 6–14 Byte. Der Frame wird also nicht vollständig gepuffert, sondern direkt in der Weiterleitung durchgeschoben.
Vorteile:
- Extrem geringe Latenzzeiten – typischerweise zwischen 2–10 µs (Mikrosekunden) pro Hop
- Geeignet für latenzkritische Anwendungen, z. B. Voice over IP, Finanzhandel, Realtime-Sensorik
Nachteile:
- Keine Prüfung der FCS-Prüfsumme – beschädigte Frames werden weitergeleitet
- Abhängigkeit von stabilen physikalischen Verbindungen
- Port-zu-Port nur sinnvoll bei gleicher Geschwindigkeit (synchrones Switching)
Synchron vs. asynchron:
Cut-Through setzt voraus, dass Ein- und Ausgangsport mit gleicher Datenrate arbeiten – etwa 10G zu 10G. Wenn Quell- und Zielport unterschiedliche Geschwindigkeiten haben (z.B. 10G zu 1G), muss zwischengespeichert werden – der Switch wechselt dann automatisch in den Store-and-Forward-Modus (asynchrones Switching).
Low Latency Switching – Die Weiterentwicklung von Cut Through im Rechenzentrum
Einige High-End-Switches – etwa aus der Cisco Nexus-Serie, von Arista oder Juniper – bieten optimierte Hardwarepfade und spezialisierte ASICs (Application Specific Integrated Circuits), um die Cut-Through-Latenz noch weiter zu minimieren.
Hier sprechen wir von Latenzen im Bereich von <1 µs, teilweise sogar unter 500 ns (Nanosekunden) – also eine Größenordnung unter klassischen Campus-Switches.
Diese Geräte werden gezielt in Umgebungen eingesetzt, in denen es auf Determinismus, Geschwindigkeit und minimale Jitter-Werte ankommt – etwa in:
- Hochfrequenzhandel (HFT)
- Finanzmarktanbindungen
- Storage-over-IP-Technologien (NVMe-oF, iSCSI)
- HPC-Cluster-Infrastrukturen
Auch hier gilt: Fehlerprüfung und Pufferung sind minimiert – die Integrität der Verbindung wird stattdessen durch Redundanz und Qualität der Infrastruktur abgesichert (Glasfaser, Fehlervermeidung auf Layer 1).
Fragment-Free – Der Kompromiss
Fragment-Free Switching (auch als Modified Cut-Through bekannt) ist eine Mischform: Der Switch wartet, bis die ersten 64 Bytes des Frames empfangen wurden – genug, um typische Kollisionstrümmer (Collision Fragments) zu erkennen – und leitet den Rest dann im Cut-Through-Verfahren weiter.
Vorteile:
- Kürzere Latenz als Store-and-Forward
- Erkennt beschädigte Frames aus typischen Kollisionen
Nachteile:
- Begrenzte Fehlererkennung
- Wenig verbreitet in Enterprise-Switches
Fragment-Free war insbesondere in frühen Ethernet-Switches verbreitet – z.B. in günstigen Cisco Catalyst 1900/2900-Modellen der 1990er-Jahre.
Adaptive Switching – situationsabhängig entscheiden
Einige moderne Switches arbeiten adaptiv: Sie analysieren die Netzqualität oder den Portstatus und entscheiden dynamisch, welche Methode pro Frame oder Port angewendet wird.
Beispiel:
- Geringe Last, hohe Qualität à Cut-Through
- Erhöhte Fehlerquote à automatischer Wechsel zu Store-and-Forward
Diese Intelligenz ermöglicht optimierte Balance zwischen Geschwindigkeit und Sicherheit – oft konfigurierbar in hochwertigen Switches (z.B. Cisco Catalyst 9300, HPE Aruba, Juniper EX).
Vergleichstabelle: Typische Latenzzeiten je Switching-Methode
Switching-Methode | Latenz (typisch) | Fehlerprüfung | Duplex erforderlich | Bemerkung |
Store-and-Forward | 10–100 µs | Vollständig | Nein | Robust, standard bei gemischten Links |
Cut-Through | 2–10 µs | Keine | Ja (synchron) | Sehr schnell, keine FCS-Prüfung |
Fragment-Free | 5–20 µs | Teilweise | Nein | Kompromisslösung, selten verwendet |
Low Latency Switching | <1 µs | Optional/minimal | Ja (synchron) | Hochspezialisierte Rechenzentrumshardware |
Switching ist mehr als Durchleitung – es ist Strategie.
Moderne Enterprise-Switches unterstützen oft mehrere Switching-Methoden parallel – dynamisch pro Port, abhängig von Protokoll, Last oder Portgeschwindigkeit. Während im klassischen Access- oder Campus-Netzwerk meist Store-and-Forward gesetzt ist, kommen in Rechenzentren und HPC-Umgebungen bevorzugt Cut-Through oder Low Latency Switching zum Einsatz – dort, wo jede Mikrosekunde zählt.
Die Wahl des Switching-Verfahrens ist dabei keine akademische Entscheidung, sondern ein relevanter Faktor für Stabilität, Sicherheit und Performance. Je nach Anwendungsszenario ist nicht die maximale Datenrate entscheidend – sondern das richtige Gleichgewicht aus Latenz, Fehlertoleranz und Infrastrukturqualität.
Redundanz in geswitchten Netzwerken – Der Loop und was Radia Perlman damit zu tun hat
Ein professionelles Netzwerk muss nicht nur performant, sondern auch ausfallsicher sein. Gerade in produktiven Infrastrukturen ist es unverzichtbar, alternative Verbindungswege vorzuhalten – etwa zwischen Verteilern, Rechenzentren oder Etagen. Die technische Antwort darauf lautet: Redundanz.
Doch in Ethernet-Netzwerken ist Redundanz nicht trivial. Ein zusätzlicher Link kann genauso gut zur Gefahr werden – insbesondere auf Layer 2, wo es keine integrierte Schleifenerkennung gibt. Genau hier beginnt die Geschichte des Loops – und die Lösung, die Radia Perlman dafür fand.
Was ist ein Loop – und warum ist er gefährlich?
Ein Loop entsteht, wenn es zwischen zwei oder mehr Layer-2-Geräten – also Switches oder Bridges – mehr als einen Pfad gibt. Anders als IP kennt das Ethernet keine Ablaufzeit (TTL) für Frames – ein Broadcast oder Multicast kann also unbegrenzt zirkulieren, sobald ein Loop besteht.
Die Folgen:
- Broadcast Storms: Duplikation von Datenverkehr im Netz, exponentiell wachsend
- MAC-Table-Flapping: Switches können keine stabilen Pfadentscheidungen mehr treffen
- Komplettausfall der Kommunikation: Selbst mit funktionierender Hardware
Ein einfacher Fehler – etwa ein falsch gestecktes Kabel in einem Meetingraum oder Loop durch WLAN-Repeater – kann so ganze Netzsegmente lahmlegen.
Die Lösung: Das Spanning Tree Protocol (STP)
Das Problem war bereits vor dem Aufkommen von Switches bekannt. In den 1980er-Jahren wurden Netzwerke häufig mit Bridges segmentiert – Geräte, die MAC-Adressen lernten und Frames auf Layer 2 weiterleiteten. Auch hier konnten Schleifen entstehen.
1985 entwickelte Radia Perlman, damals Ingenieurin bei DEC (Digital Equipment Corporation), eine elegante Lösung: das Spanning Tree Protocol (STP). Es wurde als IEEE 802.1D standardisiert und sollte Schleifen in vermaschten Layer-2-Strukturen automatisch verhindern.
Die Grundidee:
- Ein logischer Baum (Spanning Tree) wird über das Netzwerk gelegt
- Eine Bridge (später: Switch) wird zur Root Bridge erklärt
- Alle anderen Geräte berechnen den kürzesten Pfad zur Root Bridge
- Redundante Pfade werden blockiert, bleiben aber als Reserve verfügbar
- Fällt ein aktiver Pfad aus, wird automatisch umgeschaltet
Mit dem Siegeszug der Switches in den 1990er-Jahren wurde STP nahtlos auf diese Geräteklasse übertragen. Seitdem gehört es zum Grundinventar professioneller Netzwerktechnik.

Exkurs: Radia Perlman – Die Frau hinter dem Spanning Tree
Wenn man in Fachkreisen über das Spanning Tree Protocol spricht, fällt meist ein Name: Radia Perlman. Sie entwickelte 1985 bei Digital Equipment Corporation (DEC) den Algorithmus, der es erstmals ermöglichte, Ethernet-Netzwerke loopfrei, redundant und automatisch konvergent zu betreiben – ein bis heute zentrales Prinzip der Netzwerkinfrastruktur.
Doch wer ist die Frau hinter diesem Protokoll – und warum wird sie oft als Mutter des Internets bezeichnet, obwohl sie selbst diesen Titel ablehnt?
Eine ungewöhnliche Karriere
Radia Joy Perlman wurde 1951 in Portsmouth, Virginia geboren. Beide Eltern arbeiteten im technischen Umfeld – der Vater als Radar-Techniker bei der US-Marine, die Mutter als Mathematikerin in der Softwareentwicklung. Dennoch war es für eine Frau zur damaligen Zeit alles andere als selbstverständlich, eine technische Laufbahn einzuschlagen.
Perlman studierte am MIT (Massachusetts Institute of Technology), wo sie zunächst kaum Programmiererinnen begegnete – was sie jedoch nicht davon abhielt, sich früh mit Softwareentwicklung, Betriebssystemdesign und Netzwerktechnologien auseinanderzusetzen.
Bereits in den 1970er-Jahren arbeitete sie an sicherheitsrelevanten Systemen – unter anderem an einem Betriebssystem für Kinder, das sie während eines Lehrauftrags entwickelte und das als eine der ersten didaktischen Programmierschnittstellen gilt.
Das Spanning Tree Protocol – aus der Not heraus entwickelt
In den frühen 1980er-Jahren war Perlman bei DEC tätig. Dort erkannte man, dass redundante Netzstrukturen unvermeidbar für Ausfallsicherheit waren – aber in Ethernet-Netzen unweigerlich zu Loops führten. Niemand wollte sich der Aufgabe annehmen, das Problem zu lösen.
Also übernahm sie es selbst.
Der von ihr entwickelte Spanning Tree Algorithmus definierte erstmals ein Verfahren, bei dem Geräte in einem Layer-2-Netzwerk sich automatisch zu einer Baumstruktur organisieren – ohne zentrale Steuerung. Für die Dokumentation des Algorithmus schrieb sie ein Gedicht – eine Mischung aus Mathematik, Humor und Technikgeschichte.
STP wurde später als IEEE 802.1D standardisiert und ist bis heute die Grundlage vieler Weiterentwicklungen – etwa RSTP, MSTP, PVST+, aber auch moderner Konzepte wie TRILL (Transparent Interconnection of Lots of Links), an dessen Entwicklung sie ebenfalls beteiligt war.
Mehr als nur STP – auch OSPF trägt ihre Handschrift
Viele wissen nicht, dass Radia Perlman auch an der Designphilosophie des Routingprotokolls OSPF (Open Shortest Path First) beteiligt war. Sie entwickelte entscheidende Konzepte zur stabilen Konvergenz, Zuverlässigkeit und Fehlertoleranz – insbesondere bei der Feinjustierung der Link-State-Verbreitung und dem Umgang mit inkonsistenten Routinginformationen.
Während OSPF maßgeblich von der IETF vorangetrieben wurde, war Perlmans Einfluss spürbar – vor allem im Hinblick auf Sicherheit und Robustheit in dezentralen Netzarchitekturen.
Mutter des Internets? Nein, danke.
Radia Perlman wird in vielen Medien als Mutter des Internets bezeichnet – eine Bezeichnung, die sie selbst mehrfach zurückgewiesen hat. Sie sieht sich nicht als Einzelperson mit revolutionärer Vision, sondern als Teil eines kollaborativen technischen Prozesses, der durch viele Köpfe geprägt wurde:
„Das Internet wurde nicht von einem Menschen erfunden. Es war eine natürliche Evolution vieler Technologien und Entscheidungen.“
– Radia Perlman
Sie plädiert dafür, technische Leistungen nicht zu romantisieren – sondern nachhaltig, verständlich und gemeinschaftlich weiterzuentwickeln.
Ein Vermächtnis in Code, nicht in Ruhm
Heute arbeitet Radia Perlman als Netzwerktechnikerin und Forscherin bei Dell EMC, war zuvor unter anderem bei Sun Microsystems und Intel tätig, und hält zahlreiche Patente im Bereich Netzwerksicherheit, Routing, Key Management und Switching.
Sie ist IEEE Fellow, Mitglied der Internet Hall of Fame (2014) und Trägerin diverser technischer Auszeichnungen – darunter der SIGCOMM Lifetime Achievement Award.
Und dennoch sieht sie sich selbst nicht als Ikone, sondern als praktische Ingenieurin mit einem Faible für robuste Lösungen. Vielleicht ist gerade das der Grund, warum ihr Einfluss in der Netzwerktechnik so dauerhaft ist – weil er nicht nach Aufmerksamkeit strebt, sondern nach Stabilität, Skalierbarkeit und Eleganz.
Weiterentwicklungen: RSTP, MSTP, PVST+
Das ursprüngliche STP war zuverlässig, aber langsam. Die Umschaltzeiten bei einem Pfadausfall lagen oft bei 30 bis 50 Sekunden – viel zu lang für moderne Echtzeitanwendungen.
Daher entstanden mehrere Erweiterungen:
- RSTP (Rapid Spanning Tree Protocol, IEEE 802.1w): Deutlich schnellere Konvergenz – Umschaltung oft in unter 1 Sekunde
- MSTP (Multiple Spanning Tree Protocol, IEEE 802.1s): Ermöglicht separate Spanning Trees für VLAN-Gruppen – ideal für Lastverteilung
- PVST+ (Per VLAN Spanning Tree, Cisco-proprietär): Eigene Spanning-Tree-Instanz pro VLAN – granular und hochflexibel
Diese Varianten sind heute in Enterprise-Switches gängiger Hersteller wie Cisco, HPE Aruba oder Juniper fester Bestandteil.
STP in der Praxis – Schutz durch Planung
Auch wenn STP (bzw. RSTP/MSTP) weitgehend autonom arbeitet, ist eine bewusste Netzplanung essenziell. Empfehlungen aus der Praxis:
- Root Bridge manuell setzen: z.B. zentraler Core-Switch mit Priorität 0
- PortFast aktivieren: für Endgeräteports à schnellere Portfreigabe
- BPDU Guard einschalten: schützt vor versehentlich angeschlossenen Switches auf Access-Ports
- Loop-Erkennung aktivieren: Logging, Syslog, SNMP-Traps für sicherheitsrelevante Ereignisse
Gerade in VLAN-Umgebungen mit Trunk-Ports und Stacking-Strukturen sollte das Spanning Tree Design sorgfältig dokumentiert und getestet werden.
Redundanz braucht Kontrolle – und ein sicheres Konzept
Redundanz ist essenziell – aber in Ethernet-Netzen nur dann sinnvoll, wenn sie systematisch gesteuert wird. Das Spanning Tree Protocol und seine Weiterentwicklungen sorgen dafür, dass aus vermaschten Verbindungen kein Chaos, sondern Verfügbarkeit entsteht. Wer professionelle Netze plant, sollte nicht nur mit dem Kabel rechnen – sondern auch mit dem Baum.
Fazit – Netzwerkkommunikation verstehen heißt, sie strukturiert zu denken
Wer sich mit Netzwerkkommunikation beschäftigt, erkennt schnell: Es geht nicht nur um Kabel, Ports und Protokolle – es geht um Architektur, Verlässlichkeit und ein tiefes Verständnis dafür, wie Informationen kontrolliert und effizient durch ein System fließen.
Dieser Beitrag hat die Grundlagen gelegt: von den ersten Rechenverbindungen nach 1945 über die Entwicklung von Ethernet und Switching bis hin zu den physikalischen und logischen Mechanismen auf Layer 1 und Layer 2. Begriffe wie Mikrosegmentierung, MAC-Adressen, Cut-Through Switching oder Spanning Tree sind keine abstrakten Fachtermini – sie sind das betriebliche Rückgrat jeder modernen Infrastruktur.
Gerade in einer Welt, in der Netzwerke immer hybrider, virtualisierter und kritischer werden, braucht es Fachkräfte, die nicht nur anschließen, sondern verstehen, entwerfen und verantworten.
Von der Struktur zur Sprache – Die nächsten Schichten des OSI-Modells
Dieser Beitrag endet auf Layer 2 – aber das OSI-Modell geht weiter. Und mit ihm der Blick auf die Protokollfamilien, die unsere digitale Kommunikation erst ermöglichen. In einem kommenden Beitrag widmen wir uns daher der nächsten logischen Stufe:
- Layer 3–4 im Fokus: Wie funktionieren Routing, Fragmentierung, Ports und Sessions?
- Was unterscheidet IPv4 von IPv6?
- Wie arbeiten TCP, UDP, ICMP & Co.?
- Welche Rolle spielen Routingprotokolle wie OSPF oder BGP?
Dabei geht es nicht nur um Protokollsyntax – sondern um Fragen wie:
Wie fließt ein Datenstrom von Dortmund nach Dublin?
Was passiert, wenn ein Paket verloren geht?
Warum hat IPv6 kein NAT?
Schlussgedanke: Netzwerke sind Systeme – keine Zufallsprodukte
Netzwerkkommunikation ist kein An-Aus-Phänomen, sondern das Ergebnis eines jahrzehntelangen Entwicklungsprozesses – geprägt von Pionieren wie Radia Perlman, von Standardisierung durch IEEE und IETF und von technischer Pragmatik in Unternehmen wie Cisco, Microsoft oder Kalpana.
Wer dieses System versteht, kann es nicht nur bedienen – sondern gestalten.