Vitual Networking

Was ist Virtual Networking?

In einer physischen Umgebung steckt man ein Netzwerkkabel in einen Switch. In einer virtualisierten Umgebung gibt es keine physischen Kabel zwischen VMs – stattdessen verbindet ein virtueller Switch (vSwitch) die VMs miteinander und mit der physischen Netzwerkinfrastruktur.

Virtual Networking repliziert alle Konzepte des physischen Netzwerks in Software: Switches, VLANs, Bridges, Bonds und Firewalls – vollständig im Hypervisor implementiert.

Virtuelle Netzwerkkarten (vNIC)

Jede VM bekommt eine oder mehrere virtuelle Netzwerkkarten (vNIC). Für die VM sieht eine vNIC genauso aus wie eine physische Netzwerkkarte – mit MAC-Adresse, Treiber und allem:

vNIC-Typ

Hypervisor

Besonderheit

VMXNET3

VMware

Optimierter Para-virtualisierter Treiber – beste Performance

E1000/E1000e

VMware

Emuliert Intel-NIC – breite Kompatibilität

VirtIO

KVM/Proxmox

Para-virtualisiert – beste Performance unter Linux

Hyper-V Synthetic

Hyper-V

Optimierter Treiber für Windows-VMs

RTL8139

KVM/Proxmox

Emuliert alte NIC – für Legacy-OS

Virtueller Switch (vSwitch)

Der vSwitch funktioniert wie ein physischer Switch – er verbindet VMs miteinander und mit der Außenwelt:

Physische Netzwerk-Infrastruktur
        │
   [Physische NIC (pNIC/Uplink)]
        │
   [Virtueller Switch (vSwitch)]
        │
   ┌────┴────┬─────────┐
[VM 1]    [VM 2]    [VM 3]
(vNIC)    (vNIC)    (vNIC)

VMware Standard Switch (vSS)

Eigenschaften:
- Pro Host konfiguriert (nicht zentral verwaltet)
- Einfach und bewährt
- Unterstützt VLANs
- Keine erweiterten Features (kein LACP, kein Traffic Shaping pro Port)

Komponenten:
Port Groups  → Logische Gruppen von Ports mit gemeinsamen Einstellungen
Uplinks      → Verbindung zu physischen NICs
VMkernel     → Ports für Management, vMotion, Storage

VMware Distributed Switch (vDS)

Eigenschaften:
- Zentral über vCenter verwaltet (gilt für alle Hosts)
- Erweiterte Features: LACP, Traffic Shaping, NetFlow
- Konsistente Konfiguration über alle Hosts
- Erfordert vCenter und Enterprise Plus Lizenz

Vorteil: VM behält Netzwerkkonfiguration bei Live-Migration

Linux Bridge (KVM/Proxmox)

Proxmox Netzwerk-Konfiguration:

auto vmbr0
iface vmbr0 inet static
    address 192.168.1.10/24
    gateway 192.168.1.1
    bridge-ports eno1        ← Physische NIC
    bridge-stp off
    bridge-fd 0

VMs verbinden sich mit vmbr0 → Zugriff auf physisches Netz

VLANs in virtuellen Umgebungen

VLANs (Virtual Local Area Networks) können in virtualisierten Umgebungen auf verschiedene Arten implementiert werden:

External Switch Tagging (EST)

Physischer Switch taggt VLANs:
VM → vSwitch → pNIC → [Physischer Switch taggt VLAN]

Nachteil: Jede VM braucht eigenen physischen Port pro VLAN
Selten genutzt in virtualisierten Umgebungen

Virtual Switch Tagging (VST)

vSwitch übernimmt VLAN-Tagging:
VM (untagged) → Port Group (VLAN 10) → vSwitch taggt → pNIC (Trunk) → Switch

Konfiguration:
Port Group "Produktion"  → VLAN ID 10
Port Group "Entwicklung" → VLAN ID 20
Port Group "Management"  → VLAN ID 100

Uplink zum physischen Switch als Trunk konfiguriert
→ Häufigste Methode in virtualisierten Umgebungen

Virtual Guest Tagging (VGT)

VM selbst taggt VLANs:
VM (tagged) → vSwitch (VLAN 4095 = alle) → pNIC (Trunk) → Switch

Anwendungsfall: VM ist selbst ein Router oder Firewall
                VM braucht Zugriff auf mehrere VLANs

Netzwerkmodi für VMs

Modus

Beschreibung

Einsatz

Bridged

VM ist direkt im physischen Netz – eigene IP im Netzwerk

Produktions-VMs die im LAN sichtbar sein müssen

NAT

VM teilt sich IP des Hosts – von außen nicht direkt erreichbar

Typ-2: Test-VMs, Entwicklung (VirtualBox-Standard)

Host-Only

VM kommuniziert nur mit Host – kein Internetzugang

Isolierte Test-Umgebungen

Internal

VMs kommunizieren nur untereinander – kein Host-Zugriff

Komplett isolierte Netzwerke

SR-IOV – Single Root I/O Virtualization

SR-IOV ermöglicht es einer physischen NIC sich in mehrere virtuelle Funktionen (VF) aufzuteilen die direkt an VMs durchgereicht werden – ähnlich wie GPU-Passthrough:

Normale virtuelle NIC:
VM → vNIC (Software) → vSwitch (Software) → pNIC (Hardware)
     └── Hypervisor verarbeitet alles in Software (CPU-Last)

SR-IOV:
VM → VF (Hardware) ──────────────────────→ pNIC (Hardware)
     └── Hypervisor weitgehend umgangen (geringere Latenz, weniger CPU)

Anforderungen:
- NIC muss SR-IOV unterstützen
- IOMMU im BIOS aktivieren (VT-d/AMD-Vi)
- Treiber im Gast-OS

Einsatz: Netzwerk-intensive VMs, NFV (Network Function Virtualization)

Netzwerk-Bonding und Teaming

Mehrere physische NICs können zu einem logischen Uplink zusammengefasst werden:

Methode

Vorteil

Beschreibung

Active/Standby

Redundanz

Eine NIC aktiv, zweite als Failover bereit

Active/Active (Round Robin)

Lastverteilung

Traffic wird über beide NICs verteilt

LACP (802.3ad)

Redundanz + Bandbreite

Link Aggregation mit Switch-Unterstützung

Zusammenfassung

  • VMs erhalten virtuelle Netzwerkkarten (vNIC) die physische NICs emulieren

  • Para-virtualisierte Treiber (VMXNET3, VirtIO) bieten bessere Performance als emulierte

  • Der vSwitch verbindet VMs untereinander und mit dem physischen Netz

  • VST (Virtual Switch Tagging) ist die häufigste VLAN-Methode in virtualisierten Umgebungen

  • Netzwerkmodi: Bridged (im LAN), NAT (hinter Host-IP), Host-Only (nur Host), Internal (nur VMs)

  • VMware bietet Standard Switch (pro Host) und Distributed Switch (zentral verwaltet)

  • SR-IOV ermöglicht direkten Hardware-Zugriff der VM auf physische NIC-Funktionen

  • NIC-Bonding erhöht Redundanz und/oder Bandbreite der Uplinks