Virtualisierung (ESXi HyperV)

silverSl!DE

Teammitglied
Mitglied seit
7. Juni 2005
Beiträge
14.675
Alter
39
Ort
Düren
Website
www.drivers-forum.de
Fahrzeug(e)
2006er BMW E90 325i
2011er BMW F25 X3
Garagenstellplatz1
[1]
Garagenstellplatz2
[2]
Das ist genau wie wenn ich sage Hyper V ist besser als ESX. Ich muss das momentan sagen, obwohl es mich innerlich fast zerreißt. ;)
Ha! Ist da jemand kein VMware-partner mehr? Hehe
hatte die gleiche disskussion mit einem MS-Fanboy als Vorgesetzten, weil ich überall ESX(i) einsetze. Hab dann die Dienste, die er am meisten nutzte auf Hyper-V VMs aufgesetzt.
Dieses Jahr migrieren wir alle Hyper-V umgebungen zu ESX.:pfeif2:
 
Zuletzt bearbeitet:
Ha! Ist da jemand kein VMware-partner mehr? Hehe
hatte die gleiche disskussion mit einem MS-Fanboy als Vorgesetzten, weil ich überall ESX(i) einsetze. Hab dann die Dienste, die er am meisten nutzte auf Hyper-V VMs aufgesetzt.
Dieses Jahr migrieren wir alle Hyper-V umgebungen zu ESX.:pfeif2:

Man muss eben die Interessen der Erbsenzähler unterstützen. ;)

So ähnlich. Du musst dir vorstellen, das ist so als ob die Dienstwagenflotte von BMW 5er mit tollem und intuitiven iDrive, genialem Navi, Komfort und ausreichend Dampf auf eine Marke gewechselt hat, wo man die Autos nur mit 3 Lenkrädern, 7 Pedalen, 18 Gängen, wovon 7 gar nicht wirklich was bringen, aber dem selben Dampf bewegen muss. Ach ja, da die Windschutzscheibe 30*30 cm gross ist, ist man irgendwie auch noch im Blindflug. Dafür kostet es halt fast nix. Dummerweise braucht man wegen der Windschutzscheibe noch ein Navi welches zusätzlich mit nem Anhänger mitgeführt werden und das frisst den Kostenvorteil dann wieder nahezu auf. Man hat zwar grundsätzlich die gleiche Performance, aber der Komfortverlust ist eklatant. Das interessiert natürlich nur den Admin, aber der verursacht eben nur Ehdakosten (da er eh da ist). Dann noch die lächerlichen Probleme und Unzulänglichkeiten nerven.
 
Zuletzt bearbeitet von einem Moderator:
Ich hab 1x mal mit HyperV was installiert und bin mehr als froh, dass der neue AG ESXi mit aktuellem vmware einsetzt. :)
 
Zuletzt bearbeitet von einem Moderator:
Danke dass ihr eure Posts als Offtopic markiert habt - ist sehr respektvoll den anderen gegenüber :top:. Ich denke trotzdem dass eine Fortführung im Z4-Thread nicht sinnvoll ist - daher geht es nun hier weiter.
 
Danke dass ihr eure Posts als Offtopic markiert habt - ist sehr respektvoll den anderen gegenüber :top:. Ich denke trotzdem dass eine Fortführung im Z4-Thread nicht sinnvoll ist - daher geht es nun hier weiter.
Super danke dir, sollte auch nur ne Bemerkung werden.

Da es noch mehr Leidensgenossen gibt, ist die abtrennung natürlich nötig.
Und jetzt, wo wir unter uns sind:biggrin2::
Ich bereite gerade eine IT-interne Präsi vor. Vergleich Features, Usability, Performance u Kosten von Hyper-V vs ESXi bzw vSphere.
Gerade die Erfahrungen wie das katastrophale Management oder die Kostenfalle durch Updatezwang der nachfolge OSes wird sehr gerne ignoriert. Darum immer her mit horrorgeschichten. Ich arbeite die in den Vortrag ein. Ihr macht damit die Welt ein stück besser.:freu:
 
Danke dass ihr eure Posts als Offtopic markiert habt - ist sehr respektvoll den anderen gegenüber :top:. Ich denke trotzdem dass eine Fortführung im Z4-Thread nicht sinnvoll ist - daher geht es nun hier weiter.

Dann könnte man sie jetzt On-Topic markieren.

Du wärst ein guter Qualifier. ;)

@silverSl!DE

Was soll ich sagen. Für Hyper V braucht man mindestens 3 Konsolen. Wenn nicht nimmt man Powershell, doch auch hier gibt es starke Limitationen. Ganz geil ist das remote Management von Disks und Geräten auf Core-Servern.

Dann noch der gefühlte Blindflug, weshalb man Projekt Honolulu benötigt, stabile Version seit 08.01.2019 (stabil, ein Witz), welches aber keine Langzeitstatistik ersetzt und irgendwie noch Beta ist. Somit braucht man Third Party Software wie Veeam One, welche wieder Geld, Ressourcen und Know How braucht.

Dann das mangelhafte Lastmanagement, wo zum Teil affinity-rules mit antiaffinity-rules ergänzt werden müssen, sobald man CSV nimmt ist eh alles hinfällig. Und dann noch die fehlende Sicht bezüglich Overcommittment beim Thema CPU. CPU wait/ready scheint MS nicht wirklich zu interessieren, was bei DB und Echtzeit-Systemen essentiell ist und bei ESX Out Off the Box da war.

Zu Lizenzthemen, Backup und Guest Clustern schreibe ich mal lieber nix.

Und das sind nur Auszüge. Am Ende nimmt man lieber Azure und hat seine Ruhe.
 
Zuletzt bearbeitet:
[✓]

Vielen Dank, ist Azure tatsächlich brauchbar? Ist für mich iwie ein rotes tuch Forschungsdaten auf fremde Server drücken.

Azure ist technisch absolut brauchbar. Doch beim Thema Forschungsdaten bin ich absolut bei dir.

Zwar sagt MS sie würden deine Daten gar nicht sehen können, was totaler Blödsinn ist, und hätten ja Vertraulichkeitsklauseln/-verträge. Was das am Ende wert ist, zeigt die Tatsache dass diverse Firmen darauf bestanden haben, dass Azure RZs mit Standorten in dem selben Land, wo auch der gewünschte/geforderte Gerichtsstand ist, sein müssen. Siehe Microsoft Cloud Deutschland oder Schweiz wo auch die Swisscom mitmischt.

Das Vertrauen ist das Hauptproblem, aber aus einer Verwaltung heraus ist es was anderes als Banken oder Forschung.

Wir haben diverse Hybridanbindungen, aber Hybrid mit Azure ist vergleichbar wie eine 27 stündige Zangengeburt. Du krampfst wie ein Blöder, dann hast du es auf dem Arm, aber es sieht am Anfang irgendwie extrem unschön und deformiert aus. Du hoffst nur das keine bleibenden Schäden da sind.

Doch nach etwas Zeit ist es wie bei allem anderen auch. Man gewöhnt sich dran oder es wächst raus. ;)
 
Ein guter Kollege aus der alten Firma (bin dort seit 09/2017 weg) kontaktierte mich gestern: er muss sich auf eine VM anmelden, die ich damals mal von einem Host auf einen anderen umgezogen und wieder zum Laufen gebracht habe, obwohl ich nicht dafür zuständig war. Die war damals schon uralt und wurde nicht mehr aktiv genutzt, Windows Server 2003 und irgendwelche uralten Peoplesoft Daten. Wurde auch schon längst aus der Domäne gelöscht.
Habe dann gestern den ganzen Tag im Kopf gekramt, diverse Kennwörter durchgegeben die ich noch wusste, nix dabei. Abends dann die alten Unterlagen durchgeschaut, funktionierte auch nichts davon.
Eben habe ich dann per Teamviewer in ne Teamviewer Sitzung in ne RDP Sitzung in den VM Ware Player und dort per ERD Commander das Kennwort des lokalen Admins der VM zurückgesetzt.
Man hilft doch gern. :D
Sowas ist immer satisfying.
 
Ich hab ne advanced frage:
Hat jemand zufällig noch nen netzwerktreiber für die Broadcom NetXtrem I BCM 5719 Quadport 1Gbit PCIe Karte?
Knackpunkt: ich brauche es für ESXi 4.1 in nem Dell R610...
Such schon seit 2Tagen u komme nicht voran. Wenn ich morgen nix finde, hol ich mir eine BCM 5709 QP 1Gbit für 20eur bei ebay privat u klopp die rein.
Bei VMware nen Treiber für ne nicht aktuelle esxi version zu finden is auch ne mittelschwere Katastrophe...
Hab halt nur die free license un kein vCenter Server auf der Maschine...
 
Gibts für den kein Costumized ESXI Image direkt von Dell? Damit lief bei mir immer alles Perfekt. Sonst ggf. mal bei virtuallyghetto gucken, ob du da was findest. Sonst ist es vermutlich echt am stressfreisten ne gut unterstützte Netzwerkkarte reinzustecken und fertig.


Zum allgemeinen ESXI ist toll Tenor hier: Hab mir die Tage nen Test-server auf nem Intel-NUC aufgesetzt, weil mir der Dell-Server den ich hier hatte zu groß und laut war. Sogar externe USB-Netzwerkadapter sind bei 6.7 in 5 Minuten eingerichtet.
 
Jop hab das Dell customized A02 drauf. es gibt zwar A04 und A05 als Image, das kann ich aber icht verwenden, weil es ein Testsystem ist. Darauf mache ich Testläufe für in Place Upgrades von esxi 4.1 über 5.0, 5,5, 6.0 auf 6.5 evlt 6.7 wobei 6.7 zumindest nicht offiziell auf nem R610 supported wird. Sprich ich hab ein altes HA-Cluster in einem abgeschotteten Messnetzwerk und hab endlich die nötigen Ressourcen, um das Upgrade zu testen. war vorher mangels Hardware nicht möglich.
Tja die Nachteile des öffentlichen Dienstes und zweckgebundener Mittel, die auf Konto A im Überfluss da sind, man aber nur von Konto C buchen darf, währen die mittel auf konto A verfallen...:wallbash:
Und ein hochkritisches Cluster einfach im Produktivbetrieb über mehrere Versionen Hochgraden, da kann ich mir auch gleich
"ein One Way Ticken nach DownUnder buchen, Papiere über dem Pazifik und und sich selbst über dem Outback fallen lassen". <== zwischen meinem IT-Kollegen und mir als "Plan C" bekannt. :biggrin2:
 
Sonst ist es vermutlich echt am stressfreisten ne gut unterstützte Netzwerkkarte reinzustecken und fertig.
tjoa die BCM 5709 ist auch onboard verbaut und wird von der Dell A02 customized out of the box supported.
die BCM 5719 dagegen ist neuer und ich hab bisher erst treiber ab esxi 5.0 gefunden...
ich schaue später, ob die treiber in der A04/A05 drin sind und ich die exportiert bekomme. ansonsten hab ich für sage und schreibe 22EUR eine BCM5709 bei ebay gestern geschossen. Im ÖD können wir natürlich nicht Gebrauchtware kaufen. Die regierung will, dass ich lieber die Gleiche Karte über den Dell support für 700EUR Steuergeld hole! UM ein PROBEBETRIEB auf einem TESTSYSTEM testen!:doh:
 
Hallo Universalsupportforum :D

Wir setzen in einem unserer RZ einen Cluster aus 3 identischen ESXi Hosts sein, auf denen insgesamt ca. 25 VMs verteilt sind (gleichmäßig verteilte Last). Die Hosts sind untereinander mit 10Gbit Karten an 10Gbit Switches mit guten Kabeln verbunden.
Ich habe das Problem, dass einige VMs nur 1Gbit Geschwindigkeit bekommen, obwohl der VMXNET3 Adapter konfiguriert ist und in den Eigenschaften der Netzwerkverbindung auch 10Gbit angezeigt werden.
Die VMs hängen pro Host jeweils an denselben vSwitches in denselben VM-Netzwerken.
Das Problem betrifft nur einzelne VMs pro Host. Andere VMs desselben Hosts bekommen mit denen auf anderen Hosts die vollen 10Gbit, also liegt es nicht an den Hosts oder der physischen Verkabelung. Die betroffenen VMs bekommen mit anderen VMs desselben Hosts volle 10Gbit, nur eben nicht zu einem anderen Host.

VM1 auf Host1 zu VM2 auf Host1: 10Gbit
VM1 auf Host1 zu VM3 auf Host2: 1Gbit
VM2 auf Host1 zu VM3 auf Host2: 10Gbit

Die Geschwindigkeit teste ich mit NetIO 1.33, die Ergebnisse sind reproduzierbar.

An den VMware Tools und somit den Treibern der VMXNET3 scheint es nicht zu liegen, denn auch VMs mit älteren Versionen von 2015 kriegen die volle Geschwindigkeit. Außerdem kriegen die betroffenen VMs ja zu welchen auf demselben Host die volle Geschwindigkeit. Habe vorhin auch mal an einer VM die Tools und somit die NIC-Treiber aktualisiert, keine Änderung. Auch das OS scheint keinen Einfluss zu haben.
Ich finde auch in den Eigenschaften der vSwitches oder der VMs keinerlei Einstellungen, die zum Problem passen würden.

Die Tests im anhängenden Beispiel (192.168.3.32 ist eine betroffene langsame VM) gingen von
Host 2 -> Host 3
Host 2 -> Host 1 (langsam)
Host 2 -> Host 1 (schnell)

Hier noch ein Schaubild meiner Tests, worin zu sehen ist, dass einzelne VMs betroffen sind, nicht aber die Hosts untereinander.
Alle VMs haben den VMXNET3 Adapter und zeigen 10Gbit an.
Rot = 1Gbit
Grün = 10Gbit

10Gbit_2.jpg
 
Zuletzt bearbeitet von einem Moderator:
Nun, für mich klingt das eher so als hättest du ein Problem mit der Infrastruktur? Routing/Switch respektive Firewall. Eventuell VLans mit Restriktionen.

Nichts desto trotz würde ich gerne mal ESXi Version, VM Version und Patchlevel sehen. Ausserdem ist die Frage ob ein Overcommittement vorliegt und ob Numa in Bezug darauf richtig eingestellt ist. Lustigerweise haben mir gerade die zwei Themen einige Haare gekostet und ziemlich ähnliche Phänomene verursacht haben.

Schau mal die Numa Thematik an:

1. Run esxtop

2. Press "m" to enter on memory statistics

3. Press "f" to change the fields displayed

4. Press "f" again to show NUMA related fields
 
Zuletzt bearbeitet:
Hintergrund noch dazu: Das ist das RZ einer Firma die zu unserer Gruppe gehört, früher aber einen eigenen ITler hatte. Der hat das damals alles komplett von Bechtle neu stricken lassen und die haben dabei mit Kanonen auf Spatzen geschossen.
Inzwischen ist der Typ weg, wir sind dafür zuständig und haben aber keinerlei Dokumentation, was wann wieso wie konfiguriert wurde. Der größte Teil dessen was hier also existiert und konfiguriert ist sind Altlasten. Das Upgrade des Netzwerks der Hosts untereinander auf 10Gbit ist eine unserer ersten Optimierungen.

Routing/Switch respektive Firewall. Eventuell VLans mit Restriktionen.
Alle drei Hosts hängen auf demselben Switch (Host 3 per LWL auf einem weiteren Switch), ohne Firewall dazwischen. Routing findet da keins statt. Beide Switches sind neue Zyxel Geräte.
VLans gibt es, aber alle VMs sind im selben VLan 1 = default. Auf dem Switch finde ich keine Priorisierung.

Was mir halt nicht in den Kopf geht wieso die VMs eines unterschiedliche tatsächliche Geschwindigkeiten haben, obwohl alle im selben VM Netzwerk sind, im selben IP Netzwerk, auf der selben Physik auf der keine Einstellungen bzw. Priorisierung o.Ä. gemacht werden.
 
Zuletzt bearbeitet von einem Moderator:
Ah, unterschiedlich schnelle physikalische Adapter. Schau mal auf dem Host -> Manage (verwalten, ich hasse deutsch in Konsolen) -> Networking (Netzwerk) -> Virtual Switches -> dein vSwitch1 -> Einstellungen (Bleistiftsymbol) -> was unter Teaming und Failover gesetzt ist.
 

zum Problem. laut deiner Skizze, würde ich auf ESX2 anfangen und speziell die 2.VM vorknüpfen.
und vor allem die NUMA-Thematik von @Itrocket ist wichtig zu überprüfen.

Laufen 1G und 10G Verbindungen über die SELBEN physischen ports und Leitungen. evtl ist ja auch was einfachech wie full u half dublex auf nem port oder so.
 
Hast du die einzelnen VMs mal neu gestartet? Also komplett geschlossen, nicht nur einen Reboot gemacht?
Ja.

Ah, unterschiedlich schnelle physikalische Adapter. Schau mal auf dem Host -> Manage (verwalten, ich hasse deutsch in Konsolen) -> Networking (Netzwerk) -> Virtual Switches -> dein vSwitch1 -> Einstellungen (Bleistiftsymbol) -> was unter Teaming und Failover gesetzt ist.
Da war ich auch schon, habe jedoch keine Zuordnung bzgl. VM-Priorität gefunden. Siehe Screenshot.
Teaming/Lastausgleich brauchen wir eigentlich nicht, die onboard 1000er Karten würden wir eher nur als Failover nutzen wollen. Müsste ich die 1000er Karte dann runter zu standby packen, da sonst immer Lastausgleich stattfindet?

Hier habe ich jedoch noch nichts konfiguriert. Das ist alles noch von den "Experten" von Bechtle, die das Konstrukt damals aufgesetzt haben, die Hosts mit 10Gbit Karten verkaufen und dann nur einen 1Gbit Core-Switch hernehmen.

 
Zurück
Oben Unten