Da ich im Beitrag Homelab-1.0 bereits meine Anforderungen definiert hatte, wusste ich, dass ich insgesamt 19 vCPU und 62 GB RAM benötige. Daher entschied ich mich, für meinen Management-NUC direkt zu Beginn Memory Tiering zu aktivieren.
Ressourcenanforderungen
vCenter: Small, 4 vCPU, 14 GB RAM
NSX Manager: Small, 4 vCPU, 16 GB RAM
NSX Edge: 2x Medium, jeweils 4 vCPU, 8 GB RAM
NSX ALB Controller: 6 vCPU, 24 GB RAM
DNS: 1 vCPU, 1 GB RAM
Gesamtanforderungen: 19 vCPU und 62 GB RAM
Memory Tiering
Memory Tiering ist ab der Version ESXi 8.0 Update 3 als Tech-Preview-Feature verfügbar. Es ermöglicht die Nutzung von NVMe-Flash-Geräten als zusätzliche Speicherebene neben dem DRAM. Dies erweitert den verfügbaren Arbeitsspeicher eines ESXi-Hosts und optimiert die Leistung, indem der VM-Speicher je nach Bedarf auf NVMe-Geräte oder DRAM verteilt wird.
Vorteile:
Mehr verfügbarer Arbeitsspeicher
Höhere Workload-Kapazität
Bessere Workload- und VM-Konsolidierung durch Ausgleich von Ungleichgewichten zwischen CPU und Arbeitsspeicher
Standardkonfiguration:
4:1-Verhältnis zwischen DRAM und NVMe (z. B. 1 TB DRAM → 256 GB NVMe als Memory Tier)
Maximale Nutzung: 400 % der DRAM-Kapazität als NVMe-Tier
Umsetzung:
Da mein Intel NUC bereits 64 GB DDR4-RAM verbaut hat, entschied ich mich, eine 1 TB NVMe-SSD (Samsung 960 PRO) ausschließlich für Memory Tiering mit einer 400-%-Konfiguration zu verwenden. Dadurch ergeben sich:
Hinweis: Die NVMe-SSD wird ausschließlich für Memory Tiering genutzt und kann nicht für die Bereitstellung eines VMFS-Datastores oder vSAN verwendet werden. Um die Lebensdauer der NVMe-SSD zu erhöhen, empfiehlt es sich, ein größeres Modell, mit z.B. 1 TB, zu wählen.
esxcli system settings kernel set -s MemoryTiering -v TRUE
esxcli system tierdevice create -d /vmfs/devices/disks/**NVME**
esxcli system settings advanced set -o /Mem/TierNvmePct -i 400
CPU
Der Intel NUC 13 Pro i7 enthält einen Intel Core i7-Prozessor der 13. Generation mit 6 P-Kernen und 8 E-Kernen. Bei Desktop- und mobilen CPUs ist die Big.Little-Architektur seit der 12. Generation Standard.
Ohne das Deaktivieren der P- oder E-Kerne im BIOS, um eine einheitliche Architektur zu gewährleisten, führt die Installation des ESXi-Hypervisors zu einem Fehler mit einem “Purple Screen of Death”.
Purble Screen - Klick zum vergrößern
Workaround
Falls das Deaktivieren der E-Kerne im BIOS nicht gewünscht ist, kann die folgende Konfiguration helfen:
esxcli system settings kernel set -s cpuUniformityHardCheckPanic -v FALSE
esxcli system settings kernel set -s ignoreMsrFaults -v TRUE
Vorgehensweise
E-Kerne im BIOS deaktivieren.
Installation von ESXi auf der verbauten 2,5"-SSD (1 TB).
Einstellung von cpuUniformityHardCheckPanic auf false und ignoreMsrsFaults auf true .
Neustart und Aktivierung der E-Kerne im BIOS.
Nach erfolgreicher Installation von ESXi und Aktivierung von Memory Tiering konfigurierte ich grundlegende Dienste wie DNS und NTP -Server.