AM4 - Mainboard Talk

Jetzt ist der 1700 ja in einem anderen Gehäuse mit einem anderen Kühler, damit habe ich nur noch 60° heiße Luft und bin froh, dass die direkt nach hinten gepustet wird und nicht auf die SSD.
Lautstärke ist mir wichtiger als Kühlschranktemperaturen, darum bleibts auch so.
 
Jetzt ist der 1700 ja in einem anderen Gehäuse mit einem anderen Kühler, damit habe ich nur noch 60° heiße Luft und bin froh, dass die direkt nach hinten gepustet wird und nicht auf die SSD.
Lautstärke ist mir wichtiger als Kühlschranktemperaturen, darum bleibts auch so.

Habe nun die Samsung M2 SSD verbaut, und mit H2TestW beschreiben lassen und lag dabei bei 47 Grad, im Windows idle bei 34 Grad. Für eine M2 PCIe NVME SSD sollten das sehr gute Werte sein. ;)

Mal sehn wie es im Sommer dann ist.
 
Produktseiten gehen auch online z.B. vom C7H:

ROG-CROSSHAIR-VII-HERO (ASUS)

Interessant dabei:

AMD Ryzen™ 2nd Generation/ Ryzen™ 1st Generation Processors :
1 x M.2 Socket 3, with M key, type 2242/2260/2280/22110 storage devices support (SATA & PCIE 3.0 x 4 mode)
1 x M.2 Socket 3, with M key, type 2242/2260/2280 storage devices support (PCIE 3.0 x 4 mode)
 
Nein, einen M.2 - das Extreme hat da was spezielles was aber Lanes von den PEG Slots abzieht wenn man 2 M.2 mit PCIe einsetzt.

Wie das sich beim C7H verhält ist noch offen, das Handbuch ist noch nicht online.
 
hm, warum gibts kaum noch X470 Boards mit 8 S-ATA Ports??
Siehe ASUS X370-F Strix vs. X470 version.

Anyway, hab jetzt 'nen ASUS X370-F Strix, davor Biostar X370GT7.
Das BIOS vom Biostar war echt total chaotisch und ungeordnet. ASUS is da wesentlich besser.
Wobei die MSI UEFI Setups, welche ich bisher sah (A88X-GD45 Gaming, X79-GD45 Plus, H81I) auch nicht soo toll sind..
 
Wozu braucht man 8 S-ATA Ports?
Mir fällt da nur NAS oder Server ein.
Für ein NAS ist so ein X470-Board Overkill und für Server gibt es EPYC-Boards.
Für homeserver braucht man das. Epyc ist hier totaler Overkill.
 
Moin,
kann es sein das zb. das C7H die 2 M.2 auch mir Pcie3 x4 angebunden sind, gibt da einige Fragen warum das nur einige haben andere immer noch den 2.M2 nur mit PCIe3x2 anbinden?
das wäre dann wenigstens ein versuch die 2 Sata Anschlüsse zu "ersetzen"
lg

Link
PS beim Gibabyte Aorus steht das selbe, beim Taichi Ultimate und MSI GAMING M7 AC
steht dagegen es nicht ?
 
Zuletzt bearbeitet:
Wie ASUS das beim C7H realisiert hat muss man abwarten bis das Handbuch oder erste Reviews (die das dann hoffentlich klären) online sind.
 
Es gab ja auch kaum X370-Boards damit, B350 und niedriger schon gar nicht.
Es wird wohl berechtigterweise von einem geringen Bedarf dafür ausgegangen.
Wer mit der vorhandenen Auswahl nicht zufrieden ist, muss eben noch eine Zusatzkarte in seinen Homeserver* einbauen, um mehr als 6 Festplatten nutzen zu können.

*Anhand des Namens und der Möglichkeit, viele Festplatten zu verbauen, sollte der Zweck ja klar erkennbar sein.
 
Das C7H ist Murks, der zweite NVMe-Slot deaktiviert 8 Lanes von der ersten GPU, bzw. 4 Lanes von der zweiten GPU. Was für ein Kack um ein paar Cent für einen PCIe-Switch zu sparen, und dann besitzen die die Frechheit das für über 200,- Euro zu verkaufen.
 
elmor hat dir ja geantwortet:

It's the only way to achieve 2x M.2 at x4 PCIE Gen 3 without a PCI-E bridge chip (very expensive). Any other solution would use x4 PCIE Gen2 from the chipset, which will slow you down significantly especially if using NVMe RAID.

If M.2_1 is used, PCIEX16/X8_1 will run at x16/x8 depending on if there's a card plugged in PCIEX8_2 (as usual).

If M.2_2 is used, PCIEX16/X8_1 will run at x8, and PCIEX8_2 will run at x4.

Ich sehe da weniger Mainboardhersteller in der Kritik als AMD. Die Hersteller holen das raus was die Plattform hergibt. Ich frage mich weiterhin warum der Chipsatz selber nur PCIe 2.0 bietet. Selbst mit 3.0 wäre der Unterschied zu TR4 weiterhin groß genug.

Immerhin könnte man wenn man hinnimmt das die Grafikkarte mit 8 Lanes läuft beim C7H 3 x PCIe 3.0 x4 SSD einsetzen. 2 x M.2 und einmal per Adapter/Steckkarte im 2. PEG Slot. Man verliert also nicht 4 Lanes.
 
Wer Bedarf an vielen Lanes hat, kann doch zum Threadripper greifen.
 
Wer Bedarf an vielen Lanes hat, kann doch zum Threadripper greifen.

Das sollte kein Grund sein warum der Chipsatz nur PCIe 2.0 bereitstellt, TR4 mit 64 Lanes ist dann wie mit Kanonen auf Spatzen schießen.

Man sollte auch weniger auf TR4 schauen sondern was die "Konkurrenz" im Mainstream bietet, und da hätte man sich beim Update mit PCIe 3.0 auch am Chipsatz einen Vorteil verschaffen können.

Vereinfacht:

X370: 16 Lanes per CPU für die PEG Slots plus 4 Lanes (meist M.2), Chipsatz (mit PCIe 3.0 x4 angebunden) PCIe 2.0 x8. USB & SATA direkt vom SOC.
Z370: 16 Lanes per CPU für die PEG Slots, Chipsatz (mit PCIe 3.0 x4 angebunden) PCIe 3.0 x24. Alle Schnittstellen per Chipsatz.

Für mich sieht das recht ausgeglichen aus, ja nach Einsatz mit leichten Vorteilen auf einer Seite. In der Userwahrnehmung kommt der Z370 aber meist besser weg. Das sich alles was an den 24 PCIe 3.0 Lanes hängt den DMI 3.0 teilen muss wird auch gerne runter gespielt.
 
Zuletzt bearbeitet:
Was für ein Kack um ein paar Cent für einen PCIe-Switch zu sparen, und dann besitzen die die Frechheit das für über 200,- Euro zu verkaufen.

Ich wäre vorsichtig mit solchen Aussagen.

PCIe-Switches dürften mehr als "ein paar Cent" kosten. Wenn ich mal bei Mouser stöbere, so finde ich auf der indischen Seite diesen Eintrag:

attachment.php


Die kleinste Variante eines Switches kostet dort ~4.700 indische Rupien. Laut aktuellem Umrechnungsfaktor ergibt das:

attachment.php


Aus den "paar Cent" können also auch mal 50 Euro werden, die auf jedes Board draufgeschlagen werden müssten. Selbst, wenn die Preise vielleicht völlig überzogen sind und ASUS vielleicht nur ein Drittel oder gar nur ein Viertel zahlen würde, so reden wir noch immer über mehrere Euro, im Extremfall vielleicht über 20 Euro und mehr. Und das ist dann nur der Bezug des Chips, Verdrahtung und Montage sind sicherlich auch nicht umsonst designt und umgesetzt.

Ich zitiere dazu mal einen Satz aus diesem Artikel von AnandTech:

AnandTech schrieb:
My argument is that while it does increase single GPU bandwidth to non-PLX boards, single GPU users are ending up paying another $40 BOM cost for the PLX which they are not going to use?

Dort ist also von 40 Dollar Materialkosten die Rede...

Ein PCIe-Switch ist meiner Meinung nach alles andere als ein "Pfennigteil" und sollte imho nur dort eingesetzt werden, wo es absolut notwendig ist. Zumal ein solcher Switch in der Regel auch nicht vorteilhaft für die Latenzen der angeschlossenen Geräte ist. Daher kann ich total nachvollziehen, warum sowas auf AM4 nicht eingesetzt wird.
 

Anhänge

  • PEX9700-Series.png
    PEX9700-Series.png
    67,2 KB · Aufrufe: 302
  • PEX9700-Series_umrechnung.png
    PEX9700-Series_umrechnung.png
    22,7 KB · Aufrufe: 317
File Server bzw viele alte 1TB und 2TB HDDs und keine Lust/kein Geld auf 4TB oder 6TB umzusteigen.
Und was ist jetzt der Unterschied zwischen deinem "File Server" und meinem "NAS oder Server"?
Ich bleibe dabei: "Für ein NAS ist so ein X470-Board Overkill". Da limitiert das Netzwerk und/oder die Festplatten. Da tut es ein B350-Mainboard.

--- Update ---

... Zumal ein solcher Switch in der Regel auch nicht vorteilhaft für die Latenzen der angeschlossenen Geräte ist. ...
So isses!
 
viele alte 1TB und 2TB HDDs und keine Lust

Wer viele 1 TB HDDs hat, hat nicht vorausschauend investiert, das ist persönliches Pech. Der normale User braucht halt nicht mehr als 6x SATA.


Was ich mich eher frage: warum zum Henker setzt die Hälfte der X470-Platinen auf den USB-Controller ASM1143? Warum sparen sie den Chip nicht ein und nehmen stattdessen die Schnittstellen aus SoC + Chipsatz??
 
Zuletzt bearbeitet:
Zurück
Oben Unten