App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Shanghai/ Deneb - DDR2- 1066 vs. DDR3 - 1333
- Ersteller bbott
- Erstellt am
MaximumGame
Commander
- Mitglied seit
- 21.06.2008
- Beiträge
- 177
- Renomée
- 1
Ich hab für DDR2-1066 gewählt, ich finde DDR3-1333
rechtfertigt nicht die höheren Latenzen.
Ausserdem will ich mein neuen Mainboard noch behalten und nach Möglichkeit
auch noch mit einem Deneb verwenden
rechtfertigt nicht die höheren Latenzen.
Ausserdem will ich mein neuen Mainboard noch behalten und nach Möglichkeit
auch noch mit einem Deneb verwenden
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Hast du den Thread überhaupt gelesen? PC3-10600 CL7 als schnellster DDR3-1333 Standard hat eine geringere Latenzzeit als PC2-8500 CL6 als schnellster DDR2-1066 Standard....ich finde DDR3-1333 rechtfertigt nicht die höheren Latenzen.
Die Anzahl der Wartezyklen sagt für sich genommen nämlich wenig aus. Man muss sie immer im Zusammhang mit dem Takt sehen.
Erstens hängt der Unterschied z.T. von Faktoren ab die wir nicht kennen und zweitens dürfte der Unterschied außer bei HPC-Anwendungen sehr gering ausfallen.
- AM2+ DDR2- 1066
- AM3 DDR3 - 1333
Und wenn man nur die Parameter des Moduls vergleicht, dann sollte man noch einbeziehen, dass der Datenburst bei 1333MHz kürzer ist als bei 1066MHz. Wenn ich dann CL plus den Burst bei 8 Datenworten zähle, dann komme ich auf eine Gesamtzeit von 16,9ns bei DDR2-1066/CL5 und 19,5ns DDR3-1333/CL9 (edit: hatte mich zuvor verrechnet bzw. die CL bei vollem und nicht halbem Takt berechnet) - für den Teil der Latenz die das Modul selbst ausmacht, denn die absolute Latenz für die Anwendung liegt beim Page-Hit so um die 40ns.
Zuletzt bearbeitet:
U
User002
Guest
Mit dem, was eigentlich offiziell vorgesehen ist zu argumentieren hat hier leider wenig Zweck. Da gehts irgendwie immer nach: Wieso, wird doch verkauft, also gibts das und ist Maß aller Dinge.
Wenn man sich dagegen mal die Datenblätter der großen Chiphersteller anschaut wird man feststellen, dass schon bei DDR2-800 die meisten Chips auf dieser Welt wohl offiziell nur für 6er Timings produziert sind (so wie fast alle DDR-400 Chips nur für 3er Timings gebaut wurden, was identische timings sind). Trotzdem wandeln sich die chips auf dem Weg zu den Modulbastelschmieden auf wundersame Weise fast alle in 5er chips. Und dann werden hier fleißig weiter Vergleiche mit DDR2-1066-CL5 angestellt. . Da kann man einfach nischt mehr zu sagen. Unter auch ungünstigen Bedingungen stabile Systeme sind scheinbar nicht mehr in.
Ich sehe da keinen Widerspruch..Nützlich wären halt weitere Funktionen bei den Platinen, wie DUAL-BIOS + betriebssystemunabhängige BIOS Profile. Dann kann der ANwender das System auf seinen Zweck hin optimieren. Nicht nur auf Leistung, sondern auch auf Strom sparen , bzw. Stabilität + Effizienz + ggf. auch FUN (wenn es einen mal juckt, und man eben das Maximum der potentiellen Leistung der HW ausreizen möchte )
Grüße!
(AM)(D)evil
Fleet Captain Special
- Mitglied seit
- 11.10.2007
- Beiträge
- 293
- Renomée
- 1
- Standort
- Oberbayern
- Mein Laptop
- Framework 13 7040
- Prozessor
- Ryzen 7 5800x (35w cTDP)
- Mainboard
- B450 I Aorus Pro Wifi
- Kühlung
- Boxed Lukü
- Speicher
- 32GB
- Grafikprozessor
- XFX Radeon RX 5700
- Display
- LG Ultrawide 1440p
- SSD
- WD Black SN 850X
- Gehäuse
- DAN Case A4
- Betriebssystem
- Win 10 Pro
hab irgendwo gelesen dass die Speicherspannung für DDR3-Speicher laut JDEC (oder wie das Konsortium heißt) auf 1.2V genormt wurde, bei alternate zum Bleistift findet man aber ausschließlich Module mit 1.5V.
hab ich mich verlesen oder sind die noch nicht soweit um mit der Spannung runterzugehen? mfg.
hab ich mich verlesen oder sind die noch nicht soweit um mit der Spannung runterzugehen? mfg.
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
1.5 Volt sind Standard bei DDR3-RAM, aber es wird für Notebooks und Server Low Voltage DIMMs mit 1.35 Volt geben....aber ausschließlich Module mit 1.5V.
Siehe: http://www.heise.de/newsticker/meldung/91847
(AM)(D)evil
Fleet Captain Special
- Mitglied seit
- 11.10.2007
- Beiträge
- 293
- Renomée
- 1
- Standort
- Oberbayern
- Mein Laptop
- Framework 13 7040
- Prozessor
- Ryzen 7 5800x (35w cTDP)
- Mainboard
- B450 I Aorus Pro Wifi
- Kühlung
- Boxed Lukü
- Speicher
- 32GB
- Grafikprozessor
- XFX Radeon RX 5700
- Display
- LG Ultrawide 1440p
- SSD
- WD Black SN 850X
- Gehäuse
- DAN Case A4
- Betriebssystem
- Win 10 Pro
1.5 Volt sind Standard bei DDR3-RAM, aber es wird für Notebooks und Server Low Voltage DIMMs mit 1.35 Volt geben.
Siehe: http://www.heise.de/newsticker/meldung/91847
ah, ok danke
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Kann es sein, dass du dich um ein Jahr geirrt hast? Ursprünglich war Bulldozer doch mal für 2009 geplant, mittlerweile aber auf 2010 verlegt. Aber wohl nicht vor dem zweiten Halbjahr. So weit gingen die Roadmaps iirc nicht. Daher stand auch Bulldozer nicht mehr drin. AMD hat doch auch mal gesagt, dass bereits nächstes Jahr erste Samples geplant sind. Ich kann mir schlecht vorstellen, dass es dann noch 2 Jahre bis zum finalen Produkt dauert. IdR kann man ja sagen, Tape-Out + ein Jahr.Jo, weil Bulldozer auf 2011 verschoben wurde, und die Pläne nur bis 2010 sind.
Opteron
Redaktion
☆☆☆☆☆☆
Kann es sein, dass du dich um ein Jahr geirrt hast? Ursprünglich war Bulldozer doch mal für 2009 geplant, mittlerweile aber auf 2010 verlegt. Aber wohl nicht vor dem zweiten Halbjahr. So weit gingen die Roadmaps iirc nicht. Daher stand auch Bulldozer nicht mehr drin. AMD hat doch auch mal gesagt, dass bereits nächstes Jahr erste Samples geplant sind. Ich kann mir schlecht vorstellen, dass es dann noch 2 Jahre bis zum finalen Produkt dauert. IdR kann man ja sagen, Tape-Out + ein Jahr.
Hier nochmal das Bildchen:
Da steht nichtmal was für 2011, aber das ist ausgegraut ...
Wie auch immer, gab die Info bei nem Conference Call, dass im H2 2010 Samples geplant sind, Auslieferung dann 2011.
Macht auch keinen Sinn, AMD hat jetzt für Anfang / Mitte 2010 erstmal die neue G34 Plattform mit 8 und 12 Kombi-Kernern im Angebot, da hat ein Bulldozer schon mal keinen Platz
Das Einzigste was früher kommen könnte, wäre ein Bulldozer Kern als CPU-Part im Fusion.
ciao
Alex
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Ja, das meinte ich ja. Ab 2H 2010 werden noch keine konkreten CPUs angegeben. Selbst Magny-Cours und Sao Paulo sind sicherlich nicht die Welt. Vermutlich nur ein einfacher und doppelter Istanbul für G34. Sollte Bulldozer tatsächlich erst 2011 kommen, lägen ca. 2 Jahre ohne richtige Weiterentwicklung dazwischen. Ich weiss nicht, ob sich das AMD angesichts Westmere und Sandy Bridge erlauben kann.
Opteron
Redaktion
☆☆☆☆☆☆
Die Frage ist nicht, ob sie sich das erlauben kann, die Frage ist, ob sie es nicht früher schaffen .. so ne komplett neue CPU wird nicht einfach. Bin ja eh gespannt, wie "neu" das Teil wirklich wird.Ja, das meinte ich ja. Ab 2H 2010 werden noch keine konkreten CPUs angegeben. Selbst Magny-Cours und Sao Paulo sind sicherlich nicht die Welt. Vermutlich nur ein einfacher und doppelter Istanbul für G34. Sollte Bulldozer tatsächlich erst 2011 kommen, lägen ca. 2 Jahre ohne richtige Weiterentwicklung dazwischen. Ich weiss nicht, ob sich das AMD angesichts Westmere und Sandy Bridge erlauben kann.
Zwei Jahre sind im Serverbereich normal, schau Dir die Spanne oben in der Grafik an, Socket-F dual -> Socket-F quad = 2 Jahre, bei S940 wars ähnlich ...
Würde auch keinen Sinn machen, gleich 2010 das Teil zu bringen, wenn man erst kurz zuvor 8 und 12 Kerner neu rausgebracht hat.
Das letzte Mal, wo AMD ähnlichen Unsinn machen wollte, war bei der 45nm Einführung. Die sollte nach alten Plänen ja schon Anfang 2008 von statten gehen, nichtmal ein Jahr nach AMDs 65nm Start ... tja .. wie schauts jetzt gerade aus ..
ciao
Alex
hot
Admiral Special
- Mitglied seit
- 21.09.2002
- Beiträge
- 1.187
- Renomée
- 15
- Prozessor
- AMD Phenom 9500
- Mainboard
- Asrock AOD790GX/128
- Kühlung
- Scythe Mugen
- Speicher
- 2x Kingston DDR2 1066 CL7 1,9V
- Grafikprozessor
- Leadtek Geforce 260 Extreme+
- Display
- Samsung 2432BW
- HDD
- Samsung HD403LJ, Samung SP1614C
- Optisches Laufwerk
- LG HL55B
- Soundkarte
- Realtek ALC890
- Gehäuse
- Zirco AX
- Netzteil
- Coba Nitrox 600W Rev.2
- Betriebssystem
- Vista x64 HP
- Webbrowser
- Firefox
Da bin ich ja immernoch der Meinung, dass Sao Paulo und vor allem Magny-Cours sowieso erst in 32nm möglich sind, also für 2010 ein 32nm-K10-HexaCore angesetzt ist. BD würde dann klar erst in 2011 kommen (genauer gesagt Ende 2011), das würde auch klar passen. Denn was mir etwas sauer aufstösst, ist, dass es 2 45nm HexaCore geben soll? Das wäre aus Herstellersicht kompletter Quatsch... Zudem kommt Istanbul nicht vor Oktober/November 2009, dann wäre für den Sao-Paulo Oktober/November 2010 ein passender Zeitplan, was zu den 32nm sehr gut passen würde, da der Zeitplan genau aufgeht. Wenn der SockelG34 erst Ende 2010 kommt, dann passt sicher auch das Aufbohren des SockelF, ansonsten würde das kaum lohnen für 1/2 Jahr. Die CPU-Hersteller planen immer für mindestens 1 Jahr Laufzeit für eine Plattform/CPU-Reihe. Im Klartext heißt das, dass der Shanghai mindestens 1 Jahr auf dem Markt ist, bevor der Istanbul kommt, genau wie die Plattform SockelF+ mindestens 1 Jahr "im Amt" sein wird - das ist traditionell mit einigen Abweichungen ins negative immer so gewesen. Alles andere wäre einfach unrealistisch.
Zuletzt bearbeitet:
Opteron
Redaktion
☆☆☆☆☆☆
Der 2te 6er Kern kommt in 45nm 2.0 Prozess, d.h. mit high-k. Das macht aus Herstellersicht sehr wohl Sinn ^^Denn was mir etwas sauer aufstösst, ist, dass es 2 45nm HexaCore geben soll? Das wäre aus Herstellersicht kompletter Quatsch... Zudem kommt Istanbul nicht vor Oktober/November 2009, dann wäre für den Sao-Paulo Oktober/November 2010 ein passender Zeitplan, was zu den 32nm sehr gut passen würde, da der Zeitplan genau aufgeht.
Alles weitere bitte im K10 Thread, wird hier langsam OT.
ciao
Alex
dbpaule
Grand Admiral Special
- Mitglied seit
- 29.10.2007
- Beiträge
- 2.591
- Renomée
- 153
- Mein Laptop
- Lenovo T61 (80GB, 2x1,8GHz Centrino Duo, Quardo NVS140M, 2GB RAM DDR2 667)
- Prozessor
- Xeon E3-1245V2
- Mainboard
- ASRock Fatal1ty Z77 Professional-M
- Kühlung
- Prolimatech Samuel 17 @ NB Multiframe M12-PS
- Speicher
- 4x8GB Mushkin Blackline DDR3-1600 CL9
- Grafikprozessor
- Intel HD4000P
- Display
- Dell U2711 + Samsung SyncMaster 2494HS
- HDD
- Intel X25-M G2 120GB, Seagate Momentus XT 750GB, Hitachi Ultrastar A7K3000 2TB
- Optisches Laufwerk
- extern
- Gehäuse
- Silverstone Grandia GD05 @ 2x NB M12-S2, 1x M12-PS, 2x M8-S1
- Netzteil
- Chieftec Nitro 88+ 650W
- Schau Dir das System auf sysprofile.de an
Hallo zusammen,
ich habe mal ein Experiment gewagt und einen meiner Riegel bis zu Anschlag oced. Ich habe als Benchmark den Everest Speicherlatenz-Test genommen. Bei DDR2 800 waren es 79ns und bei DDR2 1187 nur noch 64,2ns. Das ist leider nicht so recht vergleichbar zu den AMDs, aber interessant wars auf jeden Fall. Die Latenzen lagen immer bei 5-7-7-18 (weil unter DDR2 1187 diese Timings erreicht wurden habe ich sie auch für DDR 800 genommen, um besser vergelcihen zu können). Der Latenzunterschied scheint also sehr stark taktabhängig zu sein. Bei DDR2 800 CL4 (4-4-4-12) habe ich gerade mal 77,2ns erreicht. Das ist also eher zu vernachlässigen und bringt wohl kaum Vorteile gegenüber CL5.
Vielleicht sollte man also tatsächlich lieber zu höhergetakteten Speichermodulen greifen und die Timings teilweise vernachlässigen. Leider bin ich nun unentschlossen, da ich keine Referenz zu DDR3 habe. Aber vielleicht hilft der Beitrag etwas.
MfG, Paule
ich habe mal ein Experiment gewagt und einen meiner Riegel bis zu Anschlag oced. Ich habe als Benchmark den Everest Speicherlatenz-Test genommen. Bei DDR2 800 waren es 79ns und bei DDR2 1187 nur noch 64,2ns. Das ist leider nicht so recht vergleichbar zu den AMDs, aber interessant wars auf jeden Fall. Die Latenzen lagen immer bei 5-7-7-18 (weil unter DDR2 1187 diese Timings erreicht wurden habe ich sie auch für DDR 800 genommen, um besser vergelcihen zu können). Der Latenzunterschied scheint also sehr stark taktabhängig zu sein. Bei DDR2 800 CL4 (4-4-4-12) habe ich gerade mal 77,2ns erreicht. Das ist also eher zu vernachlässigen und bringt wohl kaum Vorteile gegenüber CL5.
Vielleicht sollte man also tatsächlich lieber zu höhergetakteten Speichermodulen greifen und die Timings teilweise vernachlässigen. Leider bin ich nun unentschlossen, da ich keine Referenz zu DDR3 habe. Aber vielleicht hilft der Beitrag etwas.
MfG, Paule
Ähnliche Themen
- Antworten
- 5
- Aufrufe
- 5K
- Antworten
- 0
- Aufrufe
- 30K
- Antworten
- 0
- Aufrufe
- 36K