In Vorbereitung auf Das Boot 3.0

Status
Für weitere Antworten geschlossen.
Ja, das System betreibt sie mit 2666 MHz, sogar mit 1T Command out-of-the-box (weil Single-Rank). Allerdings funktioniert die Auslesung mit den gängigen Tools nicht richtig, weil der registered Speicher wohl alles wegfilert :P

Der Windows 10 Scheduler erkennt übrigens auch die NUMA-Nodes ganz sauber :o :D

Anhang anzeigen 36790

Was anderes hätte ich bei diesem Speicher nicht erwartet, aber scheint so das Supermicro zumindest die Speichergeschichte bezogen auf das UEFI hinbekommen hat, das ist auch heute keine Selbstverständlichkeit. :)

Würde ja gerne von AIDA64 ein Speicherbenchmark sehen, bezogen auf Lese/Schreib/Kopierdurchsatz und Speicherverzögerung. Die 100K sollten im Schreiben/Lesen locker zu knacken sein.
 
Zuletzt bearbeitet:
Ansonsten ist Asteroids wirklich ein sehr guter Stabilitäts- bzw. Auslastungstest. Wobei bei mir die SSE-WUs nochmal etwas mehr Verbrauch erzeugen als die AVX-WUs.
Kann ich gerade bestätigen, mit den SSE3 WUs waren es ~10°C mehr an den SpaWa. Bastel gerade die AppInfo.xml um, rechne die AVX aber trotzdem mal fertig.
 
Kann ich gerade bestätigen, mit den SSE3 WUs waren es ~10°C mehr an den SpaWa. Bastel gerade die AppInfo.xml um, rechne die AVX aber trotzdem mal fertig.

Blöde Frage aber: Wurde das mit SSE3 dann auch schneller berechnet, oder wars nur nutzloser Mehrverbrauch?
 
Was anderes hätte ich bei diesem Speicher nicht erwartet, aber scheint so das Supermicro zumindest die Speichergeschichte bezogen auf das UEFI hinbekommen hat, das ist auch heute keine Selbstverständlichkeit. :)
Da hängt auch viel an spezifikationskonformen Einträgen in den RAM-SPDs. Da steht oftmals ziemlicher Müll drin, auch bei "Marken" OC-Rams. Mit Crucial ist man da ebenfalls auf der sicheren Seite.
 
Blöde Frage aber: Wurde das mit SSE3 dann auch schneller berechnet, oder wars nur nutzloser Mehrverbrauch?

Deswegen rechne ich die AVX fertig, will es selber wissen... in etwa 70 Minuten schreibe ich es im passenden Thread
EDIT: Gerade gesehen das drei AVX ich schon vorher hatte, sie waren schneller berechnet als die meisten SSE2/3 WUs, liegt aber im Schwankungsbereich
 
Zuletzt bearbeitet:
Für die Hardwareprofis sicher keine neue News, aber bei den Samsung 850 Pro durchaus testen, ob die mit aktiven "Disk Cache" laufen bzw. damit besser laufen.
https://www.dell.com/community/Powe...ERC-H700-and-Samsung-850-PRO-SSD/td-p/5007559
https://www.reddit.com/r/homelab/comments/3s5szs/t610_w_perc_h700_raid_controller_ssd_options/

wobei den internen Cache der HDD/SSD schalten meist nur die HW Controller aus.

Aber gerade bei den Cache losen Controllern wie SAS 6iR / H200 / H310 bei Dell ( alles LSI 2008) macht das schon einen unterschied aus.
 
@Nero24,

Heftig, der haut echt gut rein was den Speicherdurchsatz angeht. Der Unterbau würde es auf jedenfalls erlauben noch eine Grafikkarten für Berechnungen mit einzupflegen und hat zugleich einen digitalen Ausgang. Die SW-Bernsteinmonitore oder SW-LCD dürften mittlerweile Tod sein, wie auch demnächst die VGA Schnittstelle. Ich weiß nicht wie oft ich bei Kunden schon die VGA billig Kabel getauscht habe, weil die defekt waren. Habe irgendwann nicht mehr gezählt. Und Geflucht wenn der gekauft billig FHD Monitor aus dem Discounter nur ein VGA hatte. Wenn es nach mir gehen würde, hätte ich die VGA Buchse schon längst vom Markt verschwinden lassen, da es keine Sau braucht. Digitales Scharfes Bild ist heute Standard. Augenkrebs am flimmernden VGA-Bildschirm will heute keine Geschenkt haben. *buck*
 
Wenn es nach mir gehen würde, hätte ich die VGA Buchse schon längst vom Markt verschwinden lassen, da es keine Sau braucht. Digitales Scharfes Bild ist heute Standard. Augenkrebs am flimmernden VGA-Bildschirm will heute keine Geschenkt haben. *buck*

Die wär auch schon längst weg, wenn die Hersteller für HDMI nicht ein paar Cent Lizenzgebühren zahlen müssten.. und dann gabs da noch ne EU-Fernsehsteuer oder so, die jeden Monitor mit HDMI-Eingang als Fernseher einstufte, weshalb mehr Zoll fällig wurde. Keine Ahnung, ob das noch aktuell ist, aber auch aus dem Grund bin ich Displayport-Fan, das gibts für umsonst ;)
 
Die SW-Bernsteinmonitore oder SW-LCD dürften mittlerweile Tod sein, wie auch demnächst die VGA Schnittstelle. Ich weiß nicht wie oft ich bei Kunden schon die VGA billig Kabel getauscht habe, weil die defekt waren. Habe irgendwann nicht mehr gezählt. Und Geflucht wenn der gekauft billig FHD Monitor aus dem Discounter nur ein VGA hatte. Wenn es nach mir gehen würde, hätte ich die VGA Buchse schon längst vom Markt verschwinden lassen, da es keine Sau braucht. Digitales Scharfes Bild ist heute Standard. Augenkrebs am flimmernden VGA-Bildschirm will heute keine Geschenkt haben. *buck*
Monochrom war noch vor VGA.
Und VGA kann durchaus auch scharf sein, wenn man kein Billigkabel nimmt und die Ausgangsfilter ordentlich sind.
Bei uns in der Firma ist VGA nach wie vor im Einsatz, auch in FullHD als DualView mit DVI - und ich sehe da ehrlich gesagt keinen großen Unterschied, wenn der Monitor ordentlich eingestellt ist.
VGA war ist größtenteils noch der gemeinsame Nenner, wenn man mal schnell einen Monitor irgendwo anschließen muss, da eben noch überall vorhanden.
Am TFT flimmert auch mit VGA nichts, ist ja keine Röhre.
 
VGA oder was auch immer: Das interessiert doch alles bei einem Server nicht.
VGA ist ausreichend und bestens dafür geeignet als Konsole und der Minimalstandard.
 
den server können wir doch sicher nebenbei noch als spieleserver mißbrauchen ...z.b. für ut oder so sachen ;D
 
Oder Mumble *lova*
 
Macht Euch nicht allzu viel Hoffnung das ich mehr als 2 Cores für irgendwas anderes als P3D frei gebe...
 
Naja, aufgrund der speziellen Bauweise von Epyc – 4 Dies mit je eigenen Caches und Speicheranbindung – wäre es sinnvoll, die Aufgaben Node-weise freizugeben. So könnte dank der NUMA-Bauweise auf einem Node – das sind jetzt bei 7351P vier Kerne plus SMT :D, nicht mehr zwei wie bei der ursprünglichen Planung für ein Epyc-Boot mit dem 7251 – beispielsweise BOINC laufen wenn Pentathlon ist, und man hätte immer noch drei komplette, weitestgehend unabhängig arbeitende, Nodes frei für P3D.
 
Naja ;D werden wir alles sehen, ob numa oder nicht spielt für mich jetzt einmal keine Rolle.
 
Hmm ist die CPU schon gekauft bzw. fix? Ansonsten gibts noch ne spritze für was größeres. Vote for UT Server!
 
Zuletzt bearbeitet:
Nur halt den 7401P, den ich wohl nehmen werden (muss).
 
VGA oder was auch immer: Das interessiert doch alles bei einem Server nicht.
VGA ist ausreichend und bestens dafür geeignet als Konsole und der Minimalstandard.

Nach CGA/EGA, MGA, VGA heute im Jahre 2018 sollte DVI der Standard sein, auch auf einem Serverboard. Nichtmal von den Kosten ist es billiger da das digitale Bild ja noch analog umgerechnet werden muss, bei dem verbauten Schrott Chip.

MagicEye04@

Ein DVI Port ist nicht Lizenzgebunden, und wenn man auf dem Serverboard ein Chip ala Matrox G550 verbaut hätte. Das dürfte mit eine der ersten Karten am Markt mit DVI gewesen sein, wenn man die vorherigen Modell mal nicht berücksichtigt.

Bei einem Bekannten der 2 Bildschirme nun verwendet, habe ich den einen per DVI verbunden und den anderen per DVI@HDMI Kabel am HDMI Port der Karte. Den VGA haben wir gleich ausgelassen, braucht wie gesagt kein Mensch mehr.
 
Nach CGA/EGA, MGA, VGA heute im Jahre 2018 sollte DVI der Standard sein, auch auf einem Serverboard. Nichtmal von den Kosten ist es billiger da das digitale Bild ja noch analog umgerechnet werden muss, bei dem verbauten Schrott Chip.
Das ist wie die Diskussion PS/2 vs. USB. Im Normalfall funktioniert eine USB-Tastatur an einem PC. In speziellen Fällen jedoch, wenn Legacy-Support im BIOS deaktiviert wurde oder das Live-Image keinen USB-Support beinhaltet, dann eben nicht. Eine PS/2 Tastatur dagegen funkioniert immer, also nicht zu 99% der Fälle sondern IMMER.

Dasselbe gilt für den Server-Betrieb. Am Boot 3.0 wird (wie schon am Boot 2.x und 1.0) kein Monitor angeschlossen sein. Das System wird via SSH administriert. Das heißt, es ist schon deswegen unerheblich, welcher Display-Ausgang verbaut ist, weil kein Display angeschlossen sein wird *buck*

Bei den nativ-digitalen Grafikkarten kommt zudem hinzu, dass sie ohne angeschlossenen Monitor diversen Einschränkungen unterworfen sind. Frag mal die Kryptominer, die AMD RX oder Vega im Einsatz haben! Die müssen für jede Grafikkarte einen HDMI-Dongle anschließen, um die GPU voll nutzen zu können. Das alles kann man sich sparen, wenn ein VGA-Port verbaut ist wie hier, der bei Bedarf einfach angestöpselt wird und gut. Bei einem DVI-, HDMI- oder gar DisplayPort-Anschluss ist dagegen gar nicht gesagt, dass man ein Signal bekommt, wenn der Monitor nicht zur Bootzeit angesteckt war *abgelehnt

WO bekomme ich das Wallpaper in WQHD und fHU? Giv P3DN Wallpaper!

Von den FAQs der (ganz) alten Webseite :)
http://www.planet3dnow.de/faq/planet3dnow/index.shtml
 
Zuletzt bearbeitet:
@Nero:

Wenn das Board nun mit dem neuen BIOS einen Spectre Microcode Patch hat - wäre es da nicht mal interessant den Performance Impact mit/ohne den Microcode zu testen ? Der Spectre-Schutz müsste sich ja via Inspectre-Tool + Reboot hin und her schalten lassen ?

:-) Dann hätten wir ggf. mal Zahlen für ein AMD-Zen-Based System wie sich das mit Spectre V2 verhält. Passend dazu könnte vielleicht jemand auf einem Intel-Rechner die selben Tools/Benchmarks machen mit den Varianten:
1) Meltdown + Spectre V2 - BEIDE AKTIV
2) Meltdown - AKTIV, Spectre V2 - IN-AKTIV
3) Spectre V2 - AKTIV, Meltdown - IN-AKTIV
4) Beide IN-AKTIV
 
Wenn das Board nun mit dem neuen BIOS einen Spectre Microcode Patch hat - wäre es da nicht mal interessant den Performance Impact mit/ohne den Microcode zu testen ? Der Spectre-Schutz müsste sich ja via Inspectre-Tool + Reboot hin und her schalten lassen ?
Kannst Du vergessen! Hab ich gleich am ersten Tag geschaut!

Zwar meldet InSpectre in den detaillierten Ausführungen, äquivalent zu den Release-Notes des BIOS 1.0a, dass Maßnahmen an der Hardware ergriffen wurden...

epyc_spectre_jein.PNG

...unter dem Strich steht jedoch auch mit den jüngsten Updates (für Win10 v1709) beim Spectre-Schutz noch immer No.

epyc_spectre_no.PNG

Also prinzipiell scheint AMD was gemacht zu haben, aber damit Microsoft den Spectre-Schutz aktivieren kann, reicht's anscheinend noch nicht.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten