VMware Hypervisor

JKuehl

Grand Admiral Special
Mitglied seit
22.06.2003
Beiträge
7.903
Renomée
145
Standort
Stockholm, Schweden
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2012
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2014
  • BOINC Pentathlon 2015
Welchen Hardwareunterbau empfehlt ihr hier? Zur Info: der Hypervisor bring ein eigenes OS mit, braucht also kein Linux oder Windows.

Derzeit läuft das alles unter Windows-7 mit nebemstehendem System als VMWARE-Server (bis auf den Linux-Fileserver, das ist noch ein natives ICH-10 Hardwareraid, von dem ich aber wegwill und definitiv zu MDADM Software-Raid hinmöchte).
Alles sehr zufriedenstellend, Leistung ist genug da, nur soll die Kiste hier als reines Arbeitstier und zum Zocken verwendet werden - also nur bei Bedarf angeschaltet werden und ich will auch vermeiden dass der VMWARE-Server bei Reboot oder Bluescreen mit down geht.

Definitiv zu erfüllenden Anforderungen:
- VMWare Hypervisor - kein KVM, kein Microsoft oder sonstwas
- eine Kiste aus Standard-Hardware (Nur CPU, RAM, Board, ggf. HDD/SSD) [MoBo braucht 2-4 Sata-Anschlüsse für Hypervisor-Host, Guestplatten werden ggf. über PCIe Karten eingebunden)
- keine USV
- 8-16GB RAM


Ganz grobe Eckdaten an die ich gedacht habe:
- Private Kiste für Zuhause, also nix was den höchsten Ansprüchen genügen muss
- 24/7 Betrieb, aber ohne USV
- Ausgewogene Balance zwischen Leistung (CPU) und Energieverbrauch.

- immer laufen muss:
- eine VM,Ubuntu, stellt Fileserver zur Verfügung, muss auf 8-16 physikalische HDDs zugreifen können um per MDADM mehrere RAID-5 zu erzeugen. Leistung zweitrangig, ist nur ein Massenspeicher.

- zwei Virtualisierungen von Notebooks die einfach migriert werden (1.5 GB RAM, Singlecore).

Bei Bedarf Aktivierung:
- eine VM, Windows 7, für Encoding-Tasks, 2-4 GB Ram, alle Cores die es bekommen kann.
- zwei VMs, Ubuntu, Boinc-Testumgebung, je 4 GB Ram, alle Cores die es bekommen kann.

Hardware (angedacht)

- Quadcore ggf. mit Option später auf Hexacore zu gehen (Phenom II oder I7-9xx?)
- 8-16 GB Ram (DDR3, kein ECC)
- entsprechendes Board + CPU
 
Zuletzt bearbeitet:
Hallo JKuehl,

ich würde dir zunächst einmal diese Seite empfehlen: http://www.vm-help.com/esx40i/esx40_whitebox_HCL.php

Den Hypervisor würde ich auf einen USB Stick instalieren und davon booten.
Für den Host (Datastore) solltest du die Platten mit einem RAID ausfallsicher machen. Raid1 z.B.

Die Gastsystemplatten würde ich an einen DELL PERC5i mit Speicher und BBU hängen.

Wieviel Geld wolltest du denn ausgeben?

Meine ESX Maschinen bestehen aus ASUS M4785TD-EVO Boards und Phenom II X4 955 und 8GB Ram.
 
Hallo Remix,

da bist du schon ziemlich nah an dem dran was ich mir vorstelle, aber dennoch schon zu high-end. Primär soll das System einfach nur den Q6600-Rechner entlasten und schlank halten.

Datastore als RAID-1: Sicherlich aber bei den heutigen Plattenpreisen machbar und sinnvoll.

Gastsystemplatten sollen alle auf den Datastore mit drauf, weil: die Performance dort ist mir vollkommen egal, und 3-4 gleichzeitig laufende VMs die zu 95% idlen verkraftet jede einzelne SATA-HDD. Sollte es da eng werden kommt eine SSD rein.

Gesamt-VHD-Größe aller VMs die ich derzeit nutze? 60GB - da stelle ich mir keine Fragen bezüglich i/o Performance.

Wie siehts bei 786G mit dem Verbrauch aus? Im Hardwareluxx gibts ja einen Thread in dem selbst 1090T Plattformen im Idle deutlich unter 30w gedrückt werden, da habe ich aber gerade nicht parat welche Chipsätze dafür geeignet sind.
.
EDIT :
.

2x PCIe 16x klingt aber schonmal super um da noch ein paar billigst-Sata-Controller reinzustopfen. Die müssen halt nur die Platten derart durchreichen, dass das Guest-Ubuntu darauf zugreifen und ich ein Raid-5 per MDADM erstellen / einbinden kann.
 
Dann würde ich 2x WD Caviar Blue im RAID 1 in den ESX bauen fürs Datastore.
Sollte reichen.

Ich habe ganz gute erfahrungen mit dem Delock Sata Controller gemacht.
Mit den PCI Controller.

Der Delock 89270 PCIe sollte wohl auf funktionieren.

Ich habe bei mir noch nicht nachgemessen was diese Kombi verbraucht, werde ich aber mal die Tage tun. Muss eh eine Maschine herunterfahren um den Speicher zu tauschen.

Ich betreibe auf einer Maschine einen WIndows 2003 Server mit Exchange, 1x Windows 2008 als DC und eimal Windows 2008 mit Exchange 2010.
Der X4 955 langweilt sich eingentlich den ganzen Tag. Dafür ist der RAM verbrauch enorm. RAM kannst du nie genug haben.
 
Darum wollte ich unbedingt schon auf DDR3 gehen und evtl auch ein Board mit 6 Slots nehmen. 16 GB DDR2 kosten 250-300 Euro, das geht mit DDR3 günstiger ;-)
 
Ein HP ML3xx (Tower) oder irgend was ab DL3xx (Rack) ist sicherlich nicht verkehrt. Eine zeitlang gab es auch mal Modelle mit vorinstalliertem USB-Stick.
Netter Nebeneffekt bei der Hardware ist zudem, dass es angepasste VMWare Images dafür gibt, die die Zustandsüberwachung der Hardware im ESX integriert.
 
Bedenken solltest du auf jedenfall wenn du selber baust, dass die Netzwerkkarte mit dem ESXi kompatibel sein muss.

Realtek als OnBoard Lösung fallen hier schon durch ein großes Sieb. Um auf der sicheren Seite zu sein, sollte man eine Intel Lösung im Auge behalten - Aus diesem Grund läuft bei mir aktuell ein http://geizhals.at/eu/a345895.html DQ45CB mit einem Pentium Dual Core E6500 und 8GB RAM.

Der ESXi mag nicht jeden NIC

 
hallo,

ich kann dir noch folgendes forum empfehlen : http://vmware-forum.de/
da kann man auch ohne anmeldung suchen und in der hardware rubrik gibts auch ein paar beispiele.
der hinweis mit der whitelist ist gut, aber es ist auch schon vorgekommen, dass dann trotzdem etwas nicht richtig funktioniert, aber man kann ja selber auch viel ausprobieren und wenn die hardware nicht will, muss man sie halt zurueckschicken.
ich habe schon auf dem msi k9a2 platinum, amd x6 + intel ct 1gb nic einen free esxi laufen gehabt, aber nicht viel ausprobieren koennen. zumindest ist das brett recht guenstig zu haben, wenn du noch ddr2 liegen hast, ansonsten empfehl ich dir ein neues zu kaufen mit ddr3, da der immer guenstiger wird.
ich bin ja eigentlich auch eher ein amd freund, aber leider gibt es keine boards mit 6 speichersockeln( ;) ) wie bei intel und von daher habe ich fuer einen bekannten damals folgendes system aufgebaut.
wir verzichten auf einen raid controller und setzen einzelne platten ein, was ausreicht, aber wenn ich wieder zurueck bin werde ich mal auf meinem bastelsystem probieren einen softraid im esxi aufzusetzen und dann an die anderen maschinen per nfs oder iscsi zu uebergeben. geklappt hat das wohl bei diesem herrn.
ich wurde wahrscheinlich fuer ein preiswertes und schnelles system auf intel sockel 1156 (quad +ht) gehen, da die 1366 bretter immer noch doppelt so teuer sind, und fuer ein guenstiges stromsparendes auf amd sockel am3 + x3 oder x4 und spaeter auf x6 aufruesten.
schau auch ma nach IOMMU bei amd und vt-d bei intel, damit kann man naemlich hardware direkt durchreichen.


edit: da man ja nie speicher genug haben kann sind 6 baenke natuerlich sinnvoll, es gibt aber im moment auch ein 8gb speichermodul mit ecc, welche sehr nah an die normalen ram preise rankommt. nun ist die frage welche chipsaetze koennen damit umgehen ?
edit2: bei diesem amd brett stehen 32gb in der spec


viel spass und immer schoen berichten,
david
 
Zuletzt bearbeitet:
Hallo und danke für eure Antworten!

Habe mich jetzt auch nochmal anderweitig schlau gemacht und mir einige Artikel (ua aus der aktuellen CT Linux) angeschaut. Da gibts auch nette Lösungen abseits von VMWARE ;-)

Ich werde aber sicherlich Anfang nächsten Jahes mal ein Update hier bringen können bis dahin Arbeiten und umziehen....
 
hm, ne aktuelle ct linux würd ich auch gern mal lesen. Dafür isses bei mir warm und bei euch nicht und man kann nicht alles haben ;)

Schau dir mal proxmox ve an, das fand ich ganz interessant. Mit kvm, openvz und weils debian bassierend ist geht wohl auch mdadm und du kannst deine vms schon auf einem softraid laufen lassen, das fehlt mir irgendwie am meisten am esxi..

Ciao,
David
 
ich schieb das thema nochma hoch, in der hoffnung, dass jemand auch dran interessiert ist oder gar schon erfahrungen hat. ich kann im moment nur mitlesen und nicht selber ausprobieren, obwohl es mir in den fingern juckt :)
also noch einmal ein paar infos xen und vor allem zu vt-d / io mmu. damit kann man hardware an die vms weiterreichen.

http://wiki.xensource.com/xenwiki/VTdHowTo

und nun der kracher: ich hatte vor einiger zeit aehnliches probiert, allerdings ohne vt-d und ohne extra controller. hier lauft unter esxi ein solaris/nexenta und darin wird ein zfs raid fuer die restlichen maschinen erstellt. das ganze kommt mit einer supereinfachen verwaltungsoberflaeche daher, aber schaut selbst.

http://www.napp-it.org/napp-it/all-in-one/index.html

ciao & viel spass beim basteln oder rodeln,
david
 
Paar Wochen später nehm ich dann doch wohl KVM, XEN ist zwar Bare Metal aber hat so viele Nachteile im Privaten Betrieb..
 
Paar Wochen später nehm ich dann doch wohl KVM, XEN ist zwar Bare Metal aber hat so viele Nachteile im Privaten Betrieb..
KVM ist auch nicht so das wahre, zumindest wenn es um das handling und windows Gäste geht.
Auf Grund meiner schlechten Erfahrungen damit bin ich auf virtualbox umgestiegen.
Auch bei einigen kleinen Kundenservern hat sich das bisher bestens bewährt.

lg
__tom
 
Hab ich jetzt so noch nicht erlebt. Ich gebe aber zu, ich habe es auch nur kurz angetestet, als Alternative zu VMware.
Von Abstürzen bis Hängern nach ein paar Tagen bzw. Wochen war alles drinnen.
Und die SAUMÄSSIGE IO-Performance als Windowsgast gabs gratis dazu.

lg
__tom
 
ich wollte nochma schnell ein paar hardwarenews einwerfen. Intel Sandybridge mit 32gb ram
computerbase.de/news/hardware/prozessoren/intel/2010/dezember/unterstuetzt-sandy-bridge-ram-module-mit-8-gb/
Und da ich glaube irgendwo gelesen zu haben, dass vt-d auch an board ist, waere das natürlich eine tolle plattform für vms, denn speicher kann man ja nie genug haben ;D
ciao,d.
 
Hat nur einen Nachteil: Intel ;)
 
von welchen Nachteilen im privaten Betrieb sprichst du bei XEN ?

Schau mal in die
ct linux kompakt 1/11
ix special 2/2010 (cloud grid virtualisierung)
.
EDIT :
.

Von Abstürzen bis Hängern nach ein paar Tagen bzw. Wochen war alles drinnen.
Und die SAUMÄSSIGE IO-Performance als Windowsgast gabs gratis dazu.

lg
__tom

Naja das ist halt leider so - so merke ich es auch gerade in der firma. Daher fahren wir alle Windowsmaschinen unter Hyper-V, die Linuxkisten auf Xen.
 
KVM ist auch nicht so das wahre, zumindest wenn es um das handling und windows Gäste geht.
Auf Grund meiner schlechten Erfahrungen damit bin ich auf virtualbox umgestiegen.
Auch bei einigen kleinen Kundenservern hat sich das bisher bestens bewährt.

lg
__tom
Zumal einige der Lizenzfragen inzwischen bei vbox wegfallen:
http://www.pro-linux.de/news/1/16544/virtualbox-40-freigegeben.html

Nutze eigentlich nur noch Virtualbox und abgesehen von den Problemen mit den gemeinsamen Ordnern unter XP bei aktivierter Netzwerkverbindung hatte ich damit eigentlich so gut wie keine Probleme, dafür habe ich aber auch selten ein so benutzerfreundliches Tool zur VM-Verwaltung gesehen. ;)
(Zumindest, wenn es nicht um fortgeschrittene Dinge wie VM-Clonen geht.)
 
bei vbox blieben ubu 10.04 LTS Server 64 Bit und 10.10. 32 Bit Desktop nach einiger Zeit einfach stehen... man müsste mal schauen ob das bei 4.0 behoben wurde. Ansonsten ist vbox natürlich eine schlanke, einfache Lösung.
 
bei vbox blieben ubu 10.04 LTS Server 64 Bit und 10.10. 32 Bit Desktop nach einiger Zeit einfach stehen... man müsste mal schauen ob das bei 4.0 behoben wurde. Ansonsten ist vbox natürlich eine schlanke, einfache Lösung.
Da ich Ubuntu meide wo es geht kann ich darüber natürlich nichts sagen (zuletzt hatte ich glaube ich 8.04 in einer VM), aber bisher hatte ich derartige Probleme weder bei Linux Distributionen noch bei Windows.

Aber es gibt ja auch Probleme, Netzwerk + Folder Sharing ist bei XP eine wirklich wirklich schlechte Idee.
Außer natürlich, die haben das bei 4.0 behoben? Hab ich aber noch nicht ausprobiert. ;)
 
Aber es gibt ja auch Probleme, Netzwerk + Folder Sharing ist bei XP eine wirklich wirklich schlechte Idee.
Außer natürlich, die haben das bei 4.0 behoben? Hab ich aber noch nicht ausprobiert. ;)
Hm, ich habe gar keine Probleme mit folder sharing unter XP als Host und Ubuntu als Gast.
Ich verwende es gar als workspace für ein bisserl Entwicklung mit eclipse.

lg
__tom
 
Hm, ich habe gar keine Probleme mit folder sharing unter XP als Host und Ubuntu als Gast.
Ich verwende es gar als workspace für ein bisserl Entwicklung mit eclipse.

lg
__tom
Ich weiß nicht genau, unter welchen Bedingungen das auftreten kann, aber wenn das Netzwerk aktiviert ist, dann kann es bei XP als Gast (unter Linux?) passieren, dass der Zugriff auf shared folders extrem langsam ist. Das ist ein bekannter und häufiger Bug, siehe zum Beispiel:
http://www.virtualbox.org/ticket/1728

Gibt auch noch ähnliche Bugs. Der Trick mit dem Ändern der Datei hat bei mir nicht geholfen.
Ich weiß auch nicht genau, in welchen Fällen es auftritt, ob es immer das gleiche Problem ist, oder ob da mehrere Probleme existieren.
Tatsache ist nur, dass es in solchen Konstellationen zu unangenehmen Problemen kommen kann.
 
Zurück
Oben Unten