News Erste DDR4-RAM-Module am deutschen Markt aufgetaucht

Nero24

Administrator
Teammitglied
★ Themenstarter ★
Mitglied seit
01.07.2000
Beiträge
24.057
Renomée
10.399
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
Die ersten Speichermodule nach DDR4-Standard sind vereinzelt schon seit einigen Wochen auf dem Markt. Allerdings handelte es sich dabei bisher ausschließlich um registered Module und/oder ECC-Module für Server. Nun jedoch sind aus der Serie Crucial Ballistix Sport die ersten unbuffered Non-ECC Module bei Händlern aufgetaucht, Module also, wie sie in normalen PCs Verwendung finden werden.
(…)

» Artikel lesen
 

LoRDxRaVeN

Grand Admiral Special
Mitglied seit
20.01.2009
Beiträge
4.169
Renomée
64
Standort
Oberösterreich - Studium in Wien
  • BOINC Pentathlon 2012
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2013
Für den 2015 erscheinenden Carrizo war zwar DDR4 gerüchteweise im Gespräch,...

Hmm, da gab es ja eine Roadmap, auf der explizit (neben DDR3) auch DDR4 angeführt wurde. War das keine offizielle Roadmap? Muss ich nachsehen, ob ich die finde.

LG

Nachtrag: Habe es jetzt nur für Toronto gefunden, was also bedeutet, dass das Silizium DDR4 wahrscheinlich kann, aber vielleicht für die Consumervariante nicht vorgesehen ist.
 
Zuletzt bearbeitet:

SPINA

Grand Admiral Special
Mitglied seit
07.12.2003
Beiträge
18.097
Renomée
977
Mit DDR4-RAM beginnt nach meinem Dafürhalten das Ende einer Ära. Ich könnte mir vorstellen, dass die Nachfolger auf eine gänzlich andere Technik setzen. In Zeiten immer kleinerer Strukturgrößen und hoher Anforderungen an einen sparsamen Betrieb, wird man künftig wohl nicht mehr auf einen parallelen Bus unter Verzicht auf eine Fehlerkorrektur in den Basisausführungen setzen. Wie zuletzt bei FSB/QPI, (S)ATA und PCI(e) wird man mit relativ hoher Wahrscheinlichkeit beim DRAM einen Wechsel hin zu einem seriellen Hochgeschwindigkeitslink vollziehen. Dass man bei allen Typen auf ECC setzt, sehe ich zwar nicht als gesichert hat, aber langsam wird es Zeit. Moderner DRAM wird wegen der immer schwächerer Ladungen in den Zellen und höheren Taktfrequenzen immer anfälliger für Speicherfehler, sodass ECC bald kein Luxus für Workstation und Server mehr ist.
 
G

Gast29012019_2

Guest
ECC ist im Grunde kein Luxus mehr, schon seit Jahren nicht mehr. Nur ist es i.d.r wohl nicht gewollt, das bis auf wenige Asus Bretter, und einige OEM Board Fujitsu etc. im Bios die nötigen Einstellungen zu lassen, und der AMD IMC damit durchaus umgehen kann, seit längerem schon.
Echte Server Boards kommen i.d.r eh nur mit Reg-Ram zurecht, alles andere wäre nichts halbes und nicht ganzes.

Aber da man eh schon alles bei AMD on DIE integriert könnte ich mir gut vorstellen, das man in einigen Jahren auch 8-16GB Ram direkt ins Package integrieren kann, quasi es wird keine Speicherslots mehr geben, das wird garantiert ehr zutreffen wenn DDR-5 nicht kommt.
 

SPINA

Grand Admiral Special
Mitglied seit
07.12.2003
Beiträge
18.097
Renomée
977
Zur Zeit steigert ECC noch die Kosten, weil man die DRAM Slots auf dem Mainboard mit 2x 72-Bit statt 2x 64-Bit verdrahten muss. Unter Umständen erfordert dies wegen der aufwendigen Mäanderung eines parallelen Buses ein zusätzliches PCB Layer. Die Signallaufzeiten müssen schließlich an allen Pins der Slots dieselben sein. Und die DIMMs selbst sind teurer, weil sie neun statt acht DRAM Chips je ROW beherbergen. Künftig könnte man ECC jedoch flexibler gestalten. Womöglich so, wie bei es heutzutage schon bei Grafikprozessoren üblich ist. Dort gibt es "Virtual ECC". Nehmen wir an es befinden sich 6144 MB an DRAM auf dem Board. Dann kann die GPU entweder diese 6144 MB ohne ECC mit voller Geschwindigkeit nutzen oder man legt im Treiber einen Schalter um und aus den 6144 MB werden 5376 MB (-12,5%) und man hat eine Fehlerkorrektur bei geringfügig geringerer Geschwindigkeit.
 
G

Gast29012019_2

Guest
Zur Zeit steigert ECC noch die Kosten, weil man die DRAM Slots auf dem Mainboard mit 2x 72-Bit statt 2x 64-Bit verdrahten muss. Unter Umständen erfordert dies wegen der aufwendigen Mäanderung eines parallelen Buses ein zusätzliches PCB Layer. Die Signallaufzeiten müssen schließlich an allen Pins der Slots dieselben sein. Und die DIMMs selbst sind teurer, weil sie neun statt acht DRAM Chips je ROW beherbergen. Künftig könnte man ECC jedoch flexibler gestalten. Womöglich so, wie bei es heutzutage schon bei Grafikprozessoren üblich ist. Dort gibt es "Virtual ECC". Nehmen wir an es befinden sich 6144 MB an DRAM auf dem Board. Dann kann die GPU entweder diese 6144 MB ohne ECC mit voller Geschwindigkeit nutzen oder man legt im Treiber einen Schalter um und aus den 6144 MB werden 5376 MB (-12,5%) und man hat eine Fehlerkorrektur bei geringfügig geringerer Geschwindigkeit.

Woher weiß man wie die Boards unabhängig vom Bios heute bezogen auf die Slots verdrahtet sind. Aufgrund der immer höheren Taktung, geringere Spannung kann man davon ausgehen das heute alle Boards, schon mehr Layer besitzen als die Boards von vor 10 Jahren.

Das z.b Asus K8V SE Deluxe, konnte auch ECC das wäre so 10 Jahre, kann mir aber kaum vorstellen das Asus sich extra die Mühe machte nur eine Handvoll Boards anders zu verdrahten.
 

derDruide

Grand Admiral Special
Mitglied seit
09.08.2004
Beiträge
2.003
Renomée
113
Gibt es außer diesem komischen WCCFTech-Artikel einen ernst zu nehmenden Hinweis, dass Carrizo für Desktops später kommt?
 

SPINA

Grand Admiral Special
Mitglied seit
07.12.2003
Beiträge
18.097
Renomée
977
Bei DDR4-RAM gibt es eine kleine Verbesserung in Sachen Datenintegrität bei Unbuffered DIMMs gegenüber dem Vorgänger, habe ich heute in der c't 18/2014, S. 102 ff. gelesen. Als optionales Feature wird eine CRC Prüfung bei Schreibzugriffen durchgeführt. Dadurch ist der Bus gegen manche Fehler abgesichert. Wenn ein Bit nachträglich kippt, nützt die CRC Prüfung natürlich nichts. Dies zu erkennen und gegebenfalls zu beheben sind weiterhin nur Module mit ECC Unterstützung in der Lage. Insofern ist der Nutzen überschaubar, aber es stellt dennoch eine sinnvolle Änderung dar.

Als nützlich könnte sich außerdem die Einführung so genannter Bank Groups erweisen. Insbesondere für APUs. Gegenüber DDR3-RAM steigt die Anzahl von Bänken von acht auf sechzehn und diese sind nun in zwei bis vier unabhängigen Gruppen ansprechbar. Das Konzept ähnelt in meinen Augen ein wenig dem damals zum Scheitern verurteilten Virtual Channel Memory von NEC. Bei der Abarbeitung von vielen parallelen Threads könnten die Bank Groups durch kürzere Latenzen zu einer effizienteren Auslastung der verfügbaren Ressourcen beitragen. Wunder sollte man jedoch keine erwarten.
 

MagicEye04

Grand Admiral Special
Mitglied seit
20.03.2006
Beiträge
21.344
Renomée
1.150
Standort
oops,wrong.planet..
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2012
  • BOINC Pentathlon 2013
  • BOINC Pentathlon 2014
  • BOINC Pentathlon 2015
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
  • SETI@Home Wow!-Event 2019
  • SETI@Home Intel-Race II
  • BOINC Pentathlon 2020
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2022
Mit DDR4-RAM beginnt nach meinem Dafürhalten das Ende einer Ära. Ich könnte mir vorstellen, dass die Nachfolger auf eine gänzlich andere Technik setzen. In Zeiten immer kleinerer Strukturgrößen und hoher Anforderungen an einen sparsamen Betrieb, wird man künftig wohl nicht mehr auf einen parallelen Bus unter Verzicht auf eine Fehlerkorrektur in den Basisausführungen setzen. Wie zuletzt bei FSB/QPI, (S)ATA und PCI(e) wird man mit relativ hoher Wahrscheinlichkeit beim DRAM einen Wechsel hin zu einem seriellen Hochgeschwindigkeitslink vollziehen. Dass man bei allen Typen auf ECC setzt, sehe ich zwar nicht als gesichert hat, aber langsam wird es Zeit. Moderner DRAM wird wegen der immer schwächerer Ladungen in den Zellen und höheren Taktfrequenzen immer anfälliger für Speicherfehler, sodass ECC bald kein Luxus für Workstation und Server mehr ist.
Mit ein wenig Fantasie könnte man die DDR-Technik ja bereits als teilweise serielle Übertragung ansehen.
Ansonsten wäre ich irgendwie skeptisch. Am Ende gehen die Zugriffszeiten dabei massiv in die Höhe, wenn man die Übertragung komplett serialisiert.

Wenn sich wirklich signifikante Ladungsverluste abzeichnen würden, dann würde ich einfach die Refresh-Zyklen anpassen. Das ist schließlich kein Flash, wo die Ladung ohne Strom eine halbe Ewigkeit verharren muß.
 

Patrick.LaHaye

Commander
Mitglied seit
13.02.2008
Beiträge
180
Renomée
12
..., wird man künftig wohl nicht mehr auf einen parallelen Bus unter Verzicht auf eine Fehlerkorrektur in den Basisausführungen setzen. Wie zuletzt bei FSB/QPI, (S)ATA und PCI(e) wird man mit relativ hoher Wahrscheinlichkeit beim DRAM einen Wechsel hin zu einem seriellen Hochgeschwindigkeitslink vollziehen.
Hat man schon bei FB-DIMMs versucht, hat sich aber nicht durchgesetzt.
 

SPINA

Grand Admiral Special
Mitglied seit
07.12.2003
Beiträge
18.097
Renomée
977
Hat man schon bei FB-DIMMs versucht, hat sich aber nicht durchgesetzt.
Wenn man die LR-DIMMs als (inoffizielle) Nachfolger der FB-DIMMs ansieht, würde ich diese Aussage nicht unterschreiben. Bei LR-DIMMs werden die Data, Command, Address and Clock Signale seriell zum so genannten iMB übertragen. Der Clou ist dabei, dass die Abwärtskompatibilität der Hauptplatinen zu Registered DIMMs im Regelfall erhalten bleibt. Dies sorgt für eine weit höhere Akzeptanz als einst bei den FB-DIMMs. Der iMB der LR-DIMMs weist Ähnlichkeiten zum AMB der FB-DIMMs auf, hat jedoch weniger Funktionen. Die aufwendigen RAS-Features wurden z.B. ersatzlos gestrichen. Man könnte die LR-DIMMs als "Sparausgabe" der FB-DIMMs bezeichnen. Letzteren hat außerdem noch das Genick gebrochen, dass man Kosten und Stromverbrauch zu spät in den Griff bekommen hat. Letztendlich gelang es, aber dann waren die Weichen schon gestellt und der Zug für die FB-DIMMs abgefahren.

Von Kingston gibt es zu dem Thema ein leichtverständliches Whitepaper. Hier Auszüge davon:
When a server is configured with Registered DIMMs, the memory bus functions in parallel mode, and all DRAMs are controlled by the processor’s memory controller. As more and more DRAMs are built onto a Registered DIMM, the electrical loading of the memory module increases (these are known as Ranks – memory modules come as Single Rank, Dual Rank, and Quad Rank). As more Ranks are installed in a memory channel, memory speed drops and/or the use of additional memory sockets is restricted. (...) LRDIMMs can navigate outside of these restrictions through the use of the Memory Buffer chips. When a server is exclusively configured with LRDIMMs, the memory controllers in the processors automatically shift to Serial Mode – all data, command and control signals become packetized and transmitted to the Memory Buffer on the LRDIMMs. The Memory Buffer then handles all the Reads and Writes to the DRAM chips. LRDIMMs greatly reduce the electrical loading of the DRAM chips onto the memory bus, and through a process called Rank Multiplication, transform a Quad Rank LRDIMM into a Dual Rank memory module for the memory controller. Through the reduction of the electrical Ranks of the LRDIMM, the server is then able to support LRDIMMs at higher speeds than RDIMMs, and with fewer restrictions on sockets.
 
Zuletzt bearbeitet:
Oben Unten