1 Platz in Gefahr u. GPU Frage

docking ist genauso anspruchsvoll wie qmc behaupte ich jetzt mal ^^
 
Heute ist das neue Board (X79A-D45 (8D)) für meinen i7-3930k gekommen.
Hab mal etwas getestet.

2 x HD7750@900MHz mit je 6 WUs, GPU-Load 97%, CPU-Load 50%, Laufzeit 32min, 1580k/Tag.
Verbrauch 220W.

3 x HD7750@900MHz mit je 6 WUs, GPU-Load 94%, CPU-Load 75%
Laufzeit GPU 0 + GPU 1 ca 36min
Laufzeit GPU 2 ca 41min
gibt ca 2mio/Tag.
Verbrauch 255W.

Die Karten laufen mit PCIe 16/16/8 Lanes.

Da laß ich lieber nur 2 Karten auf dem i7-3930k laufen und pack die 3. wieder in den i7-2600k, das bringt mehr.

cu JagDoc


Ja, genau der richtige Zeitpunkt. Mein Projekt mit den FX-xxxx und 2x HD7750 geb ich jetzt auf. Es ist nicht (jedenfalls nicht effektiv) möglich.

Die letzten Ergebnisse mit M5A99FX / FX-8120@4200 (!!!) / 1x HD7750 und 2x HD7750:
Das ist schon alles recht riskant und für Dauerbetrieb bestimmt nicht geeignet, weil der Prozzi schon dauerhaft auf 65°C läuft...
1.Versuch: 6WU Poem auf 1x HD7750
CPU-Last bei 40%, Cpu auf ca.59...61°C, Laufzeiten bei 2400s (=631,8k)
2.Versuch: 6WU Poem auf 1xHD7750 + 5 WU Simap auf CPU
CPU-Last 100%, CPU auf 61...62°C, Laufzeiten Poem bei 2700s (=561,6k)
3.Versuch: 2x6WU Poem auf 2x HD7750
CPU-Last bei 80...90%, CPU auf >=65°C mit ständigen Warnmeldungen (!),
Laufzeiten bei Poem 3600-3800s (= ca 815k)

(Warum bei Versuch3 die Temperatur so aus dem Ruder läuft, obwohl die Last geringer als im Versuch2 ist, weiß der Geier. Für mich völlig unlogisch.)

Es it egal, ob ich das mit dem FX-8120 versuche oder mit dem FX-6300, der übrigens nicht so gut zu übertakten ist. 4200 war bei beiden das Limit.
HT war schon auf Max. - mehr als 2600 ist nicht einstellbar (Boardlimit bei beiden)
NB war bereits auf 2400 übertaktet + 50mV übervoltet

Fazit:
Für <200k brauche ich keine zweite HD7750 und schon gar nicht übertakten.
Da bringt ein Prozzi + eine Graka deutlich mehr und das auf Stock-Einstellungen = kühler und leiser.
Ich werde jetzt noch ein paar Kombis ATI und NVidia durchprobieren und dann eins der beiden Systeme wieder demontieren (und verscherbeln ?!). Dasselbe gilt sinngemäß für meine HD6870, die auch kaum zu überreden ist, über 420k zu bringen - unakzeptabel für den Verbrauch.

Den nächsten Versuch starte ich irgendwann, wenn ich mal wieder zuviel Geld habe.
Dann aber definitiv mit Intel als Basis. Das hier mit AMD war letztendlich eine verdammt teure Erfahrung.

(Jo, und leider falle ich damit langfristig auch wieder zurück auf <500k/d - und das hat sich soooo gut angefühlt da oben in den TopTen 8))

Nachtrag:
Einen letzten Test mit den 2 HD7750 habe ich gerade angestoßen, um eventuelle Wartezeiten der einzelnen WUs auszuschließen:
2x 4 WU und jeder WU einen ganzen Kern zugeordnet ---> macht übrigens auch so ca. 80% auf der CPU (pendelt zwischen 68 und 100%)

--->Ja, und hier die Ergebnisse:
CPU-Last so um die 80% bei Temp. 55°C und Laufzeiten bei 2500s = 808,7k, absolut schwach.
Das macht die Intel-Fraktion mit einer Karte und vermutlich, nein sicher mit weniger Strom.
O.K. ich nehme den PC jetzt ganz raus. Bleibt nur noch der FX-6300 mit der HD6870 drin...
(=420k / heute abend kriegt der dann wieder die HD7750 rein und geht dann wieder auf ca. 600k rauf)
 
Zuletzt bearbeitet:
Hast Du das mal längere Zeit durchlaufen lassen, oder hast Du die Werte nur hochgerechnet?

Ich meine mich erinnern zu können, dass hier im Thread irgendwo stand, dass sich die werte noch nach oben hin einpendeln können.

Und wenn Dein FX die HD7750`s nicht ganz auslasten kann: Versuch es mal mit Stromsparen und senke den Takt und Spannung der Karten ab.


@ denjo

Gut zu wissen, falls QMC länger down sein sollte.
 
Hast Du das mal längere Zeit durchlaufen lassen, oder hast Du die Werte nur hochgerechnet?

Ich meine mich erinnern zu können, dass hier im Thread irgendwo stand, dass sich die werte noch nach oben hin einpendeln können.

Und wenn Dein FX die HD7750`s nicht ganz auslasten kann: Versuch es mal mit Stromsparen und senke den Takt und Spannung der Karten ab.


@ denjo

Gut zu wissen, falls QMC länger down sein sollte.


Hi, hochgerechnet nach zwei, max drei Durchläufen...
Selbst wenn es noch 5-10% besser weden sollte, mehr ist das nach meiner Meinung nicht.
Aber irgendwo hast du auch Recht: bei mehr Leistung denkt man zuerst ans Übertakten und Übervolten - und vergisst die Altenative: Untertakten und Untervolten...
Kann ich ja mal mit der letzten am Netz befindlichen Maschine mit einer GPU versuchen.

Erledigt:
FX-6300@3.500 bei 1,3Vcore mit 47°C und alle Lüfter runter von "Turbo" auf "Leise" --> CPU-Last ca. 80%
HD6870@1000 habe ich gelassen, aber den Speicher runter auf 1050MHz (unterer Anschlag vom CCC) - Mal sehen, was an Laufzeiten rüberkommt.
 
Zuletzt bearbeitet:
Das CCC bietet leider keinen großen Spielraum....

Wenn Du Zeit und Lust zum experimentieren hast probiere mal ein externes Tool wie Afterburner oder ATI Tray Tool.

Ich verwende mit der HD5870 das ATT. Die Karte läuft mit idle Spannung ( 0.95V ) 620Mhz; Speicher mit 318Mhz ( 875/1250 ). Dabei ist die Karte kaum noch zu hören und verbraucht nicht mehr viel. Mit 8Wu`s und 0,25CPU macht sie noch ca. 330K Credits ( ~90% Auslastung )

Damit ATT Läuft musst Du aber noch eine atipdlxx.dll herunterladen ( hab ich bei mir ( win7 64 ) ins sysWOW64 Verzeichnis kopiert )

Und Vorsicht beim UV. Du solltest die Einstellungen nicht fest in den Autostart schreiben, sonst bekommst Du beim Systemstart möglicherweise gleich einen Bluescreen, wenn der Treiber geladen hat und die Einstellungen nicht stabil sind.

Mann muss sich eben Stück für Stück an ein stabiles Optimum herantasten.

Ich weiß aber nicht, ob das ATT mit den neuen HD7xxx Karten läuft.

Ach ja: Alles auf eigene Gefahr *suspect*
 
Ja, zumal ich im Moment nicht vor Ort bin.
"Operiere" nur über den Team-Viewer. Friert mir das Ding ein, bin ich machtlos.
Deshalb jetzt eh nur Sachen, die sicher erscheinen!

Aber eben hatte ich einen lustigen Effekt: Alle 8WU sind aktiv und scheinbar in Arbeit, Zeit zählt, aber kein Fortschritt. CPU bei 65%.
Poem angehalten und fortgesetzt, ganz kurz die CPU bei 100%, dann ändern sich plötzlich die Zeiten (zurück korrigiert) und alle WU laufen wieder... CPU wieder wie normal bei 80% *noahnung*

Aber irgendwann hatte ich das schon mal, bei zwei GPUs war eine davon stehen geblieben.

Ansonsten sieht es tatsächlich so aus ;D als ob zwischen:
CPU@4200 / GPU@1000 und CPU@3500 / GPU@1000
mal gerade 200s Unterschied in der Laufzeit sind... *noahnung*

Aber das ist hier ja auch nur eine Karte und nur die HD6870, da wird die Karte das Limit bestimmen. Da werden Unterschiede wohl erst kommen, wenn ich den GPU-Takt runtersetze *suspect* - da frag ich mich doch, ob nicht ein "normaler" 4-Kerner wie Ph II X4 945 der ökonomischere Partner für diese Karte wäre.
Das wird probiert...
 
Zuletzt bearbeitet:
@Orpheus2K
Danke für den Link, leider kann ich damit nicht viel Anfangen, irgendjemand anderes evt.?
Ich habe OpenCL selber noch nie programmiert, aber habe trotzdem mal ein Blick über den Code geworfen. Deshalb sind das folgende nur Vermutungen:
Die GPU synchronisiert die WUs permanent zwischen ihr und der CPU und speichert die Zwischenergebnisse im Arbeitsspeicher.
Schneller RAM (DDR3) und ein schneller PCIe Bus kann also die theoretische Leistung erhöhen!

Folgende Tests habe ich dazu mit meinen Systemen gemach:
Mein Q9550 mit DDR2-533 rechnet am Tag ca. 400k, egal ob mit 6950 oder 7700.
Mein 3770 mit DDR3-1333 rechnet mit der 7700 (PCIe v3.0) 842k Cr/d, mit der 6950 (PCIe v2.x) sind es nur 520k Cr/d.

Die schlechte Leistung der Core2 CPUs liegt am alten RAM:
DDR2-533 (Dual Channel) Datenrate: 8,4 GB/s
DDR3-1333 (Dual Channel) Datenrate: 21,2 GB/s

Der Vorsprung der 7er Reihe bei ATI liegt nur also am schnelleren PCI Express Bus:
PCIe v2.x: 8 GB/s (80 GT/s)
PCIe v3.0: 16 GB/s (128 GT/s)


Damit ich meine Theorie bestätigen kann, werde ich mal verschiedene Einstellungen weitertesten (z.B. PCIe im Bios auf v2 reduzieren, etc)
 
Zuletzt bearbeitet:
Na Prima :( dann könnten meine hundsmiserablen Ergebnisse ja auch z.T. mit dem PCIe2.0 zusammenhängen, denn 3.0 hat keins meiner Boards...
Das macht mir neuen Mut.

Und noch was:
Wenn sich das so bestätigt, hast du gerade die Ursache gefunden, warum die FX CPUs verlieren müssen.
Das geht dann auch gar nicht anders, weil es KEINE PCIe v3.0 - Boards für AMD gibt!

Das würde auch erklären, warum ich bei nur einer Karte noch vergleichbare Ergebnisse habe (so round about) und bei zwei Karten völlig einbreche...

Ergibt sich dann die Frage: Kennt einer ein Tool, das die aktuelle Auslastung im PCIe anzeigen kann?
 
Zuletzt bearbeitet:
Die schlechte Leistung der Core2 CPUs liegt am alten RAM:
DDR2-533 (Dual Channel) Datenrate: 8,4 GB/s
DDR3-1333 (Dual Channel) Datenrate: 21,2 GB/s

Der Vorsprung der 7er Reihe bei ATI liegt nur also am schnelleren PCI Express Bus:
PCIe v2.x: 8 GB/s (80 GT/s)
PCIe v3.0: 16 GB/s (128 GT/s)


Damit ich meine Theorie bestätigen kann, werde ich mal verschiedene Einstellungen weitertesten (z.B. PCIe im Bios auf v2 reduzieren, etc)

Absoluter Mist !

Der Vorsprung der 77xx/78xx/79xx ggü 68xx/69xx liegt am CGN-Design (vs VLIW4) mit den Verbesserungen die vorallem bei OpenCL greifen!

Tests der 77xx und 78xx mit PCIe 2.0 Modus haben keinen wirklichen Vorteil bei nur einer GPU ggü PCIe 3.0 gezeigt !

Dass ein CorEi2-yyyy ggü CorEi 7 3xxx verliert liegt an folgenden Dingen:
- RAM (DDR2-533 vs DDR3-1333)
- Link (FSB vs PCIe)
- Kernen ( ? vs. Ivybitch)
 
Ich kenne keins und ich denke, es ist auch schwierig etwas zu messen.

Damit ich den Einfluss des RAMs besser beurteilen kann, werde ich auch mal zwischen Single Channel und Dual Channel wechseln.
.
EDIT :
.

Absoluter Mist !

Der Vorsprung der 77xx/78xx/79xx ggü 68xx/69xx liegt am CGN-Design (vs VLIW4) mit den Verbesserungen die vorallem bei OpenCL greifen!

Tests der 77xx und 78xx mit PCIe 2.0 Modus haben keinen wirklichen Vorteil bei nur einer GPU ggü PCIe 3.0 gezeigt !

Dass ein CorEi2-yyyy ggü CorEi 7 3xxx verliert liegt an folgenden Dingen:
- RAM (DDR2-533 vs DDR3-1333)
- Link (FSB vs PCIe)
- Kernen ( ? vs. Ivybitch)

Ok, dann lagen meine Vermutungen da in der falschen Richtung.
Ich hatte einfach versucht, die ersten Ergebnisse meiner Systeme zu deuten.

Ein wesentlicher Architekturunterschied zwischen Core2 und i7 ist sicher der Wechsel von North- und Southbridge (MCH/ICH) zu "nur noch" Southbridge (PCH). Am Anfang hatte ich es eher auf den RAM geschoben, da hatte ich daran noch nicht gedacht.
 
Zuletzt bearbeitet:
@Crashtest

Naja, ich würde das nicht so wegwerfen...

Wir haben hier doch einige, die 2x HD7750 oder sogar 2x HD7770 am PCIe 3.0 laufen haben?!

Falls es möglich ist, den PCIe 3.0 herunterzuschalten auf 2.0 (ich weiß es nicht, weil ich leider kein solches Board habe), dann brauchen wir das doch nur mal testen.

Einfach mal runterschalten und wenn die zwei GPUs dann plötzlich nicht mehr 1,5Mille machen, sondern auch nur noch 0,8 oder 0,9 -> dann haben wir den Grund wohl gefunden.
Wenn sie weiter mit 1,5 Mille rum-crunchen, dann hat PCIe 2.0 oder 3.0 keinen Einfluss...

Wer macht den Test? :o
 
Zuletzt bearbeitet:
Hier mal ein Test zwischen PCIe 2.0 vs PCIe 3.0.
Der Unterschied bei den High End Grafikkarten ist klein, wenn wir dann mit unseren HD 7750/7770 kommen, würde ich sagen das macht kein unterschied.

Das einzige was mich stört ist das die einmal SB und einmal IB nehmen, da hätte man auch Ivy auf das Board mit PCIe 2.0 packen können.
 
Zuletzt bearbeitet:
@Crashtest

Naja, ich würde das nicht so wegwerfen...

Wir haben hier doch einige, die 2x HD7750 oder sogar 2x HD7770 am PCIe 3.0 laufen haben?!

Falls es möglich ist, den PCIe 3.0 herunterzuschalten auf 2.0 (ich weiß es nicht, weil ich leider kein solches Board habe), dann brauchen wir das doch nur mal testen.

Einfach mal runterschalten und wenn die zwei GPUs dann plötzlich nicht mehr 1,5Mille machen, sondern auch nur noch 0,8 oder 0,9 -> dann haben wir den Grund wohl gefunden.
Wenn sie weiter mit 1,5 Mille rum-crunchen, dann hat PCIe 2.0 oder 3.0 keinen Einfluss...

Wer macht den Test? :o

Bei mir kann ich das im BIOS umschalten, nennt sich PEG Gen 3 Slot Configuration (Auto, Gen 1, Gen 2 oder Gen 3)
 
???

Meine Frage ging doch auch in die Richtung ob bei ZWEI GPUs ein solcher Effekt - d.h. eine "Überlastung" des PCIe auftreten könnte.

Bei nur einer GPU sind mir die Unterschiede nicht wirklich schlüssig, nur wenn ich mit
2 GPUs rechnen will, breche ich absolut ein ...

Und ich versuche zu verstehen, warum das so ist.
*noahnung*


Und leider kann ich den test nicht selbst machen, weil mein Board nur PCIe 2.1 hat, was soweit wohl 2.0 entspricht.
Den Unterschied zwischen 2.0 und 2.1 habe ich noch nicht gefunden.
 
es gibt ja auch Bretter mit DDR3 für S775. da könnte man mal vergleichen.
 
Sind denn beide Ports auf dem Board mit vollen 16 Lanes oder nur x16 kompatibel?
.
EDIT :
.

es gibt ja auch Bretter mit DDR3 für S775. da könnte man mal vergleichen.
Ich hab damals noch zu DDR2 gegriefen, da dieser billiger war. Aber vielleicht hat ein anderer ja damals mal nicht so auf den Euro geschaut!?
.
EDIT :
.

Ich hatte immer in Erinnerung, dass es schon große Unterschiede zwischen der 6400-6800 Reihe und der 6900 Reihe gibt, aber es war nur der Wechsel von VLIW5 zur VLIW4 Architecktur.
Erst die 7er nutzen dann RISC SIMD statt VLIW und das ist beim GPU Computing entscheidend!
 
Na Prima :( dann könnten meine hundsmiserablen Ergebnisse ja auch z.T. mit dem PCIe2.0 zusammenhängen, denn 3.0 hat keins meiner Boards...
Das macht mir neuen Mut.

Und noch was:
Wenn sich das so bestätigt, hast du gerade die Ursache gefunden, warum die FX CPUs verlieren müssen.
Das geht dann auch gar nicht anders, weil es KEINE PCIe v3.0 - Boards für AMD gibt!

Das würde auch erklären, warum ich bei nur einer Karte noch vergleichbare Ergebnisse habe (so round about) und bei zwei Karten völlig einbreche...

Ergibt sich dann die Frage: Kennt einer ein Tool, das die aktuelle Auslastung im PCIe anzeigen kann?
Das liegt nicht an PCIe 2.0/3.0 sondern an den verfügbaren Lanes.
Mein i7-3930k hat nur PCIe 2.0 aber 40 Lanes.
Die 3 PCIe-Slots sind mit 16/16/8 Lanes angebunden.
Die 3. Karte braucht 5min länger als die beiden anderen.

cu JagDoc
 
Der Vorsprung der 7er Reihe bei ATI liegt nur also am schnelleren PCI Express Bus:
PCIe v2.x: 8 GB/s (80 GT/s)
PCIe v3.0: 16 GB/s (128 GT/s)


Damit ich meine Theorie bestätigen kann, werde ich mal verschiedene Einstellungen weitertesten (z.B. PCIe im Bios auf v2 reduzieren, etc)
JagDoc hat dafür aber mit seinem i7@PCIe2 aber zu gute Werte, die müsste Landjunge mit seinem ivy@PCIe3 auch erreichen. Einziger Grund wäre da dann nur QuadChannel, aber dass das soviel ausmachen würde glaub ich eher nicht. Aber gut .. müsste man mal austesten.

@olsen_gg:
Wenn der Hypertarnsportmulti nicht über 13 geht, dann musst Du über den Referenztakt gehen. Probiers z.B. mal mit 13*230, das würde 3 Ghz bedeuten. musst dann nur auch mit allen anderen Taktraten aufpasse, und da dann die Multis entsprechend senken.

@JagDoc ... doof das Intel das mal wieder beschneidet .. :( Dachte das ginge...
 
JagDoc hat dafür aber mit seinem i7@PCIe2 aber zu gute Werte, die müsste Landjunge mit seinem ivy@PCIe3 auch erreichen. Einziger Grund wäre da dann nur QuadChannel, aber dass das soviel ausmachen würde glaub ich eher nicht. Aber gut .. müsste man mal austesten.

@olsen_gg:
Wenn der Hypertarnsportmulti nicht über 13 geht, dann musst Du über den Referenztakt gehen. Probiers z.B. mal mit 13*230, das würde 3 Ghz bedeuten. musst dann nur auch mit allen anderen Taktraten aufpasse, und da dann die Multis entsprechend senken.

@JagDoc ... doof das Intel das mal wieder beschneidet .. :( Dachte das ginge...
Die Sandy-Bridge EP haben PCIe 3.0, die Sandy-Bridge E nur PCIe 2.0.
Beim 1230V2 steht "PCI-Express-Konfigurationen 1x16 & 1x4, 2x8 & 1x4 or 1x8 & 3x4" das bremst auch.

cu JagDoc
 
Die Sandy-Bridge EP haben PCIe 3.0, die Sandy-Bridge E nur PCIe 2.0.
Die Jungs hier meinen, dass das trotzdem funktionieren müsste:
www.forum-3dcenter.org/vbulletin/showthread.php?t=536013

Verweisen auch zu nem Thread auf THG, da schreibt einer von nem Intel Enthusiast team (keine AHnung ob das was Offizielles ist):
We are now listing PCI-e 3.0 support for all of our X79 boards. So while the socket 2011 desktop Intel Core i7 processor didn't officially support PCI-E 3.0 when they were first released this has now been updated.
------------------------------ Christian Wood
Intel Enthusiast Team
Beim 1230V2 steht "PCI-Express-Konfigurationen 1x16 & 1x4, 2x8 & 1x4 or 1x8 & 3x4" das bremst auch.
Klar, aber das hatte ich schon einbezogen, 2x8@PCIe3 sollte ja genauso schnell sein wie Deine 2x16@PCIe2.
Falls nicht bliebe eben nur noch der RAM Unterschied.
 
Ja, Leute, dann weiß ich auch nicht *noahnung*

Mein aktuelles Board hat 2 PCIe v2.0 16x / 16 Lanes,
Die Leistung mit einer GPU steht, egal in welchem Slot die Karte steckt.
Wenn ich 2 GPUs reinhaue, bricht die Leistung zusammen, d.h. genau, sie verdoppelt sich nicht, sondern zeigt bestenfalls ein Plus von 25%.

Meinetwegen können wir die Problematik schließen. Ich bin nicht in der Lage, das Problem zu lösen - also wieder ein Fall von "95% aller Fehler sitzen vor dem PC" :-[
Damit muss ich mich abfinden.

(Irgendwann nehme ich noch einen Anlauf und zwar mit einem Intel-System.)


@Opteron: Ich habe keine Multis für den HT, sondern nur ein Auswahlmenü, das mit 2600 endet - da beißt die Maus keinen Faden ab. 2600 ist und bleibt max. oder ich muss 2600 wählen und dann den Bus anheben, sagen wir mal auf 220.
Das sollte im HT-Takt auch 10% geben!?
 
Zuletzt bearbeitet:
@Opteron: Ich habe keine Multis für den HT, sondern nur ein Auswahlmenü, das mit 2600 endet - da beißt die Maus keinen Faden ab. 2600 ist und bleibt max. oder ich muss 2600 wählen und dann den Bus anheben, sagen wir mal auf 220.
Das sollte im HT-Takt auch 10% geben!?
Ja, davon geh ich aus. Könntest Du dann mit CPUZ u.ä. Programmen überprüfen. Mess aber vorsichtshalber unter Last, nicht das da ein ein Stromsparmodus herumpfuscht.
 
Eine dumme Frage habe ich trotzdem noch:
Ich habe PCIe 2.1 und damit bei 16Lanes eine Bandbreite von max. 8000...
Gilt das jetzt für jeden PCIe 16x Platz oder teilt sich das auf, wenn ich zwei verwende?
Irgendwie sind sich die Quellen da nicht ganz einig oder nicht deutlich genug.
 
Das gilt pro Slot, aber der Hypertransport zwischen den PCIe Slots und der CPU limitiert dann. Ist ungefähr so, als wenn Du nen Gartenschlauch an 2 dicke Kanalrohre anschließt. Die Kanalrohre würden soundsoviel x100000 Liter pro Sekunde durchlassen, aber das bekommst Du durch den Gartenschlauch nie her.
 
???

Meine Frage ging doch auch in die Richtung ob bei ZWEI GPUs ein solcher Effekt - d.h. eine "Überlastung" des PCIe auftreten könnte.

Bei nur einer GPU sind mir die Unterschiede nicht wirklich schlüssig, nur wenn ich mit
2 GPUs rechnen will, breche ich absolut ein ...

Und ich versuche zu verstehen, warum das so ist.
*noahnung*


Und leider kann ich den test nicht selbst machen, weil mein Board nur PCIe 2.1 hat, was soweit wohl 2.0 entspricht.
Den Unterschied zwischen 2.0 und 2.1 habe ich noch nicht gefunden.
Das kann schon der overhead sein, je nach dem wie oft die Daten zwischen CPU und GPU hin und her müssen.
PCIe 2.1 lehnt schon an PCIe 3.0 an, sollte auch die neue Codierung haben, allerdings nur mit PCIe 2.0 Geschwindigkeit.

Ich glaube das Problem liegt an den Berechnungen selbst oder dem fehlenden 64Bit Support bzw. an der Software selbst.
Also vermutlich doch der Quad Channel IMC bei Intel.


@heizzer
Neurona? Einladungscode? Gerne! :)
 
Zurück
Oben Unten