HatsuneMilku/ESXi | |
---|---|
Entwickler | VMware Inc. |
Lizenz(en) | Proprietär |
Erstveröff. | 23. März 2001 |
Akt. Version | 7.0 Update 3c (Build 19193900) (27. Januar 2022) |
Kernel | früher wurde ein Linux-Kernel genutzt, heutzutage ein proprietärer |
Kompatibilität | x86-64, ARM |
Installationsmedium | CD, USB, NetBoot, ISO/IMG |
Sprache(n) | Englisch, Deutsch, Französisch, vereinfachtes Chinesisch, traditionelles Chinesisch, Japanisch, Koreanisch, Spanisch |
https://vmware.com/products/esxi-and-esx.html |
VMware ESXi (früher ESX) ist ein Typ-1 Hypervisor, der für die Virtualisierung von Rechenzentren, Servern und Netzwerken eingesetzt wird.
ESXi war Teil der sogenannten VMware Infrastructure, ein umfassendes Angebot des Herstellers, welches neben der Software zur Virtualisierung von Rechenzentren und Netzwerken auch eine Management-Lösung (vCenter Server, früher VirtualCenter Server), Backup und Automatisierung beinhält.
Mit der Veröffentlichung von Version 5.0 hat das Unternehmen den Namen der Software auf ESXi umgeändert.[1]
VMware ESXi läuft direkt auf der Serverhardware, ohne ein darunterliegendes Betriebssystem.[2]
ESX stammt von "Elastic Sky X".[3] Diese Bezeichnung taucht aber, bis auf einige wenige Ausnahmen,[4] nicht in der offiziellen Dokumentation auf.
VMware, Inc. bezeichnet den Hypervisor von ESXi als "vmkernel"
ESXi läuft "Bare Metal" (also ohne ein zugrundeliegendes Betriebssystem).[5] Anders als andere VMware Produkte setzt es nicht auf einem anderen Betriebssystem auf (wie beispielsweise Photon OS, das Betriebssystem welches von vCenter Server genutzt wird).[6]
Bis zur Version 4.0 wurde beim Systemstart ein Linux Kernel geladen,[7] welcher im weiteren Bootprozess andere Komponenten zur Virtualisierung geladen hat. Der Kernel stellt dann die Service Console bereit. Ab Version 4.1, wird die Entwicklung von ESX nicht mehr fortgesetzt und stattdessen ESXi weiterentwickelt, welches ohne den Linux Kernel arbeitet.
Der vmkernel ist laut VMware ein Microkernel,[8] und hat drei Schnittstellen zur Außenwelt:
Der vmkernel arbeitet direkt mit der CPU und dem RAM, setzt scan-before-execution (SBE) ein um spezielle oder privillegierte CPU Anweisungen zu erkennen und umzusetzen und SRAT (system resource allocation table) um die vergebenen Speicherbereiche zu überwachen.[9]
Der Zugriff auf andere Hardware (wie Netzwerk- oder Speichergeräte) erfolgt über Module. Einige der Module leiten sich von im Linux-Kernel verwendeten Modulen ab. Um auf diese Module zuzugreifen, stellt ein zusätzliches Modul namens vmklinux die Linux-Modulschnittstelle bereit. In der README-Datei heißt es: "Dieses Modul enthält die vom vmkernel verwendete Linux-Emulationsschicht."[10]
Der vmkernel verwendet folgende Gerätetreiber:
Diese Treiber entsprechen größtenteils den in der Hardware-Kompatibilitätsliste[11] von VMware beschriebenen Treibern. Diese Module fallen unter die GPL-Lizenz. Diese Treiber wurden von Programmierern so angepasst, so dass sie mit dem vmkernel kompatibel sind.
Seit Version 7.0 gibt es keinen Support mehr für Geräte, die vmklinux Treiber benötigen.[12]
In ESX stellt die Service-Konsole ein rudimentäres Betriebssystem dar, das in erster Linie als Bootstrap für den VMware-Kernel, vmkernel, und als Management-Schnittstelle dient. Beide Funktionen des Betriebssystems sind ab Version 5.0 nicht mehr beinhaltet, da VMware auf die integrierte ESXi-Managementschnittstelle umsteigt[13]. Die Service-Konsole ist das Betriebssystem, das für die Interaktion mit VMware ESX und den auf dem Server ausgeführten virtuellen Maschinen verwendet wird.
ESX verwendet einen Linux-Kernel, um zusätzlichen Code zu laden, von VMware oft als "vmkernel" bezeichnet. Die Abhängigkeiten zwischen dem "vmkernel" und dem Linux-Teil von ESX haben sich im Laufe der verschiedenen Versionen der Software drastisch verändert. In dem VMware-FAQ heißt es: "ESX Server enthält auch eine Servicekonsole, die auf einem Linux 2.4-Kernel basiert, der zum Booten der ESX Server-Virtualisierungsschicht verwendet wird". Der Linux-Kernel wird vor der Ausführung einer anderen Software auf einem ESX-Host ausgeführt. Bei den ESX-Versionen 1 und 2 laufen während des Startvorgangs keine VMkernel-Prozesse auf dem System. Nachdem der Linux-Kernel geladen wurde, lädt das S90vmware-Skript den vmkernel. VMware gibt an, dass der vmkernel nicht von Linux abgeleitet sei, räumt aber ein, dass es bestimmte Gerätetreiber von Linux-Gerätetreibern übernommen habe. Der Linux-Kernel läuft unter der Kontrolle des vmkernel weiter und stellt Funktionen wie das von ESX verwendete proc-Dateisystem und eine Umgebung zur Ausführung von Support-Anwendungen bereit. ESX Version 3 lädt den VMkernel aus der Linux Initrd (Linux Initial RAM Disk), also viel früher in der Boot-Sequenz als in früheren ESX-Versionen.
The ESX userspace environment, known as the "Service Console" (or as "COS" or as "vmnix"), derives from a modified version of Red Hat Linux, (Red Hat 7.2 for ESX 2.x and Red Hat Enterprise Linux 3 for ESX 3.x). In general, this Service Console provides management interfaces (CLI, webpage MUI, Remote Console).
As a further detail which differentiates the ESX from other VMware virtualization products: ESX supports the VMware proprietary cluster file system VMFS. VMFS enables multiple hosts to access the same SAN LUNs simultaneously, while file-level locking provides simple protection to file-system integrity.
In the event of a hardware error, the vmkernel can 'catch' a Machine Check Exception.[14] This results in an error message displayed on a purple diagnostic screen. This is colloquially known as a purple diagnostic screen, or purple screen of death (PSOD, cf. Blue Screen of Death (BSOD)).
Upon displaying a purple diagnostic screen, the vmkernel writes debug information to the core dump partition. This information, together with the error codes displayed on the purple diagnosic screen can be used by VMware support to determine the cause of the problem.
Live migration (vMotion) in ESX allows a virtual machine to move between two different hosts. Live storage migration (Storage vMotion) enables live migration of virtual disks on the fly.[15] During vMotion Live Migration (vLM) of a running virtual machine (VM) the content of the (RAM) memory of the VM is sent from the running VM to the new VM (the instance on another host that will become the running VM after the vLM). The content of memory is by its nature changing all the time. ESX uses a system where the content is sent to the other VM and then it will check what data is changed and send that, each time smaller blocks. At the last moment it will very briefly 'freeze' the existing VM, transfer the last changes in the RAM content and then start the new VM. The intended effect of this process is to minimise the time during which the VM is suspended; in a best case this will be the time of the final transfer plus the time required to start the new VM.[16][17]
VMware ESX war in zwei Versionen erhältlich, allerdings wird seit ESXi Version 5 nur noch ESXi weiterentwickelt.
ESX und ESXi unterstützen Windows 8 bzw. Windows Server 2012 erst ab Version 5.0.[18]
VMware ESXi is a smaller footprint version of ESX that does not include ESX's Service Console. It is available as a free download from VMware though certain features are disabled[19] without the purchase of a vCenter license.
VMware ESXi was originally a compact version of VMware ESX that allowed for a smaller 32 MB disk footprint on the Host. With a simple configuration console for mostly network configuration and remote based VMware Infrastructure Client Interface, this allows for more resources to be dedicated to the Guest environments.
There are two variations of ESXi, VMware ESXi Installable and VMware ESXi Embedded Edition. The same installation media will install to either one or the other of these installation modes depending on the size of the target media.[20] It has the ability to upgrade to VMware Infrastructure 3[21] or VMware vSphere 4.0 ESXi.
Originally named VMware ESX Server ESXi edition, through several revisions the product finally became VMware ESXi 3. New editions then followed: ESXi 3.5, ESXi 4 and now ESXi 5.
To virtualize Windows 8 or Windows Server 2012 as guest operating systems, the ESXi version must be 5.x or greater.[18]
Version release history:[19]
Vorlage:External links The following products operate in conjunction with ESX:
Network-connectivity between ESX hosts and the VM's running on it relies on virtual NIC's (inside the VM) and virtual switches. The latter exists in two versions: the 'standard' vSwitch allowing several VM's on a single ESX host to share a physical NIC and the 'distributed vSwitch' where the vSwitches on different ESX hosts form together one logical switch. Cisco offers in their Cisco Nexus product-line the Nexus 1000v as an advanced version of the standard distributed vSwitch. A Nexus1000v consists of two parts: a supervisor module (VSM) and on each ESX host a virtual ethernet module (VEM). The VSM runs as a virtual appliance within the ESX cluster or on dedicated hardware (Nexus 1010 series) and the VEM runs as module on each host and replaces a standard vDS (virtual distributed switch) from VMWare. Configuration of the switch is done on the VSM using the standard NX-OS CLI. It offers capabilities to create standard port-profiles which can then be assigned to a virtual machines with vCenter.
There are several differences between the standard vDS and the N1000v, one is that the Cisco switch has generally full support for network technologies such as LACP link aggregation or that the Vmware switch supports new features as route based on physical NIC load. However the main difference lies in the architecture: Nexus 1000v is working in the same way as a physical Ethernet switch does while vDS is relying on informations from ESX. This has consequences for example in scalability where the limit for a N1000v is 2048 virtual ports against 60000 for a dVS. The Nexus1000v is developed in co-operation between Cisco and VMWare and uses the API of the vDS[24]
Because VMWare ESX is market leader on the server-virtualisation market[25] software and hardware-vendors offer a range of tools to integrate their products or services with ESX. Examples are the products from Veeam with backup- and management-applications[26] and a plugin to monitor and manage ESX using HP OpenView,[27] Quest Software with a range of management and backup-applications and most major backup-solution providers have plugins or modules for ESX. Using Microsoft Operations Manager (SCOM) 2007/2012 with a Bridgeways ESX managementpack gives you a realtime ESX datacenter healthview.
Also hardware-vendors such as HP and Dell include tools to support the use of ESX(i) on their hardware platforms. An example is the ESX module for Dell's OpenManage management platform.[28]
Even when ESX itself is running on a Linux base there is no vSphere client available for the Linux Desktop. VMware have added a Webclient[29] since v5 but it will work on vCenter only and contains not all features.[30] vEMan[31] is a Linux application which is trying to fill that gap. These are just a few examples: there are numerous 3rd party products to manage, monitor or backup ESX infrastructures and the VM's running on them[32]
Known limitations of VMware ESXi, as of June 2013, include the following:
Einige der Limitationen von VMware ESXi 7.0 können die Gestaltung von Rechenzentren beeinflussen:[33][34]
Was die Leistung angeht, so ist Virtualisierung mit zusätzlichen Kosten verbunden, da die CPU zusätzliche Arbeit leisten muss, um die zugrunde liegende Hardware zu virtualisieren. Anweisungen, die diese zusätzliche Arbeit ausführen, sowie andere Ressourcen, die eine Virtualisierung erfordern, sind in der Regel in Betriebssystemaufrufen enthalten. In einem unveränderten Betriebssystem verursachen die Betriebssystemaufrufe den größten Teil des Virtualisierungs-"Overheads", also der doppelten Benutzung von Ressourcen.
Paravirtualisierung oder andere Virtualisierungstechniken können bei diesen Problemen helfen. VMware hat zu diesem Zweck die Schnittstelle für virtuelle Maschinen (Virtual Machine Interface - VMI) entwickelt, die derzeit von einigen Betriebssystemen unterstützt wird. Ein Vergleich zwischen vollständiger Virtualisierung und Paravirtualisierung für den ESX Server zeigt[35], dass die Paravirtualisierung in einigen Fällen wesentlich schneller ist.
When using the advanced and extended network capabilities by using the Cisco Nexus 1000v distributed virtual switch the following network-related limitations apply:[24]
Vorlage:Reflist
Vorlage:Virtualization products