GTX560TI SLI, GTX580, HD5870 Crossfire im Vergleich im Bezug auf DX11 Games

*hust* kommt drauf an, welche art der immersion man wünscht. technisch gab es auch schon von nvidias boardpartnern PCBs, die drei displays ansteuern konnten (zwei nativ über die transmitter auf dem PCB, einen weiteren per DP).. in wie weit es sinn macht, ne einzelkarte mit der dreifachen horizontalen spielauflösung zu belasten, lasse ich mal dahingestellt. bei multi-gpu-lösungen ist auch mit NV-karten surroundgaming möglich.
wobei man da auch die kirche im dorf lassen sollte, denn das gefühl mit drei bildschirmen ist nicht genreübergreifend, anhaltend gut und bei vielen spielen empfindet man es schnell als überflüssig.
mit drei projektoren und einem halbrunden raum wäre es hingegen ein hammer, aber dazu müssten die spiele generell ein anpassbares FOV haben und da das wunschdenken ist, wird es ne spielerei für zwischendurch bleiben. da nutze ich shutterbrillen (auch eine spielerei) doch schon regelmäßiger..

also auf die wunschliste für's nächste haus: noch zwei weitere 3D-projektoren und ne menge gipsplatten + spachtel für das spaßzimmer :-)


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Deine Ergebnisse sind ja echt nice.... Frage mich wie das Ergebnis mit meinem System und deinen beiden 560TI OC aussehen würde. Irgendwie ist Intel/Nvidia besser als AMD)((... hab Ich das Gefühl....
Wenn du von kleinen Auflösungen ausgehst, ja da ist Intel deutlich schneller!
Das ist eben der Abstrich denn man bei AMD machen muss, weniger Punkte bei Benchmarks.
Dafür haben sie aber bei hohen Auflsöungen und Details mindestens genau so viel FPS! ;D

MfG
 
*hust* ...

(..)

mfg
tobi

Also gegen deinen Husten solltest du dringend mal was unternehmen, das hört sich ja schlimm an und wird gar nicht besser...:)

Aber du hast schon Recht, kommt immer drauf an, wie man das ganze sieht;)
Jedenfalls reicht seine 3,8GHz getaktete Quadcore für seine Wünsche, finde ich und seine 2 5870er auch allemal.
Warum sollte er das verkaufen und neues kaufen, was nicht wirklich schneller ist?

Edit: gerade gelesen, ich quetsch das mal hier mit rein: Tspoon hat völlig Recht mit dem was er unten schreibt!
 
Zuletzt bearbeitet:
Eh ich kanns nicht mehr hören.

1. Kann man bei dem 3Dmark11 nicht nen Intel mit nem AMD CPU vergleichen
2. Aussderm sollte man bei 3DMark11 mal auf die einzelnen Scores schauen und die FPS

Die letzten Tests sind eindeutig von der CPU abhängig. Vergleicht man aber die FPS der ersten Test sieht man das die GPUs ohne CPU-Limit gleich auf sind. Einen 5870-Crossfire-User zu 2 GTX570 zu raten ist deshalb totaler Blödsinn. Desweiteren haben die 5870 bestimmt noch reserven. Leider hat er nicht geschrieben, ob er diese schon übertaktet hat.

Und wenn du nicht verstehst das nen Triple-Crossfire besser als nen Double ist, solltest das mal anschauen:
http://www.tomshardware.de/AMD-Crossfire-SLI-Nvidia-Powercolor,testberichte-240834-6.html

Inputlag hat überhaupt nichts mit Mikrorucklern zutun, die übrigends nur bei FPS unter 40 für einige bemerkbar sind. Inputlag erfolgt bei der Ausgabe des Videosignals und Mikroruckler bei der "Erstellung" der Bilder.
 
genaugenommen entstehen mikroruckler zwangsläufig durch die zeit, die beim rendern bis zur ausgabe draufgeht - darum wird es ja mit jeder weiteren GPU schlimmer.

zwei GTX570 würde ich schon deshalb nicht einbauen, weil die zusammen dann auch noch gern ein neues NT hätten.

THG schrieb:
Wann nimmt man Mikroruckler wahr?

Kurz und knackig: immer...
Die jeweilgen Unterschiede in den Erstellungszeiten für die Frames nimmt ein geübtes Auge jedoch auch bei Frameraten jenseits der 60 fps noch deutlich wahr.
genau mein eindruck; egal ob CF oder SLi. echt plöd, wenn man ein "geübtes" auge hat.. nach fast 28 EDV-jahren sollten die gucker doch eig schlechter werden.. *gg*


(..)

mfg
tobi
 
Zuletzt bearbeitet:
also ich nehme sie seltenst wahr: im AvP Bench nur wenn was hakelt: meist ist dann die zweite Karte noch nicht angesprungen oder der Treiber mochte das so nicht.
Bei Emph. Earth II nicht, wenn da was ruckelt, dann weil die Einstellungen übertrieben waren, oder die Karte einfach zu groß - das ist aber nicht auf MR zurückzuführen.
Bei Warhed ist auch alles flüssig. Da muss ich mich schon konzentrieren, wenn ich da mini-micro-Ruckler sehe - mag aber wie so oft erwähnt Personenabhängig sein. *noahnung*

Wie so oft, so auch hier noch einmal: MR werden imho völlig überschätzt (!!) und überbewertet. Meist stimmt was anderes nicht, nicht selten der Treiber.
Und wenn sie vorhanden sind, was ich nicht abstreiten möchte, dann sind sie in m. Augen wirklich unerheblich oder ganz vernachlässigbar.
Aber es hat wohl keinen Sinn, das ständig zu wiederholen. Meist schreien die am lautesten, die es selbst noch gar nicht getestet haben, oder irgendwelche Fehler im System haben. *noahnung*
 
Meine Karten wurden nicht übertaktet und takten bei 850MHz im Kern und 1200MHz im Speicher. Ich habs grad mal über das CCC versucht zu übertakten. Klappt auch soweit ganz gut. Bin jetzt bei 900/1250MHz. Nur mein "alter" 17" Bildschirm flackert die ganze Zeit. Sieht richtig schlimm aus. Mein 24" flackert hingegen nicht ein bisschen. Könnt ihr mir sagen warum das so ist und wie Ich das abstelle? Bei 850Mhz beruhigt er sich wieder... Komisch..... Ich setzt die CPU jetzt mal auf 3,9GHz... Mal sehn was dann in 3DMark steht.
und im Übrigen... Habe die ganze zeit die Scores verglichen und wenn man nur auf die FPS bei den Grafiktests sieht schneiden meine Karten wunderbar ab.
So..... Jetzt wird aber erstmal gebencht....
 
Den VRAM brauchst nicht übertakten. Alles ab ~ 140GB/s reicht dicke für Auflösungen inkl./bis. 1920x1200 mit vollem AA/AF. Da limitiert die Bandbreite keinesfalls.
 
Ohh,

du bist seit deinem 8. Lebensjahr in der EDV unterwegs.... Hut ab... :]

genau (weihnachten 1984 ging das elend los) *yes* und das seitdem lückenlos und scheckheftgepflegt *rolleyes*


(..)

mfg
tobi
 
Ich habe mich jetzt mal dran gemacht und mein System über 3DMark11 gebencht:
9mdtdqzkqj5.png

Ich hatte auf meinem kleinen Zweitmonitor 2xGPU-Z und CPU-Z auf. Wollt sehen ob Crossfire auch schön arbeitet. Und ja, das tut es. Nur ist mir aufgefallen, dass der GPU-Load beim "Kombinierten-Test",bei dem, wie der Name schon sagt, die CPU und GPU´s im Zusammenspiel getestet werden, bei beiden Karten nicht über 50% geht. Meine CPU ist aber voll ausgelastet bei 3817.0 MHz. Ist das Normal? Oder ist das ein klarer Hinweis dafür, dass meine CPU nicht stark genug für mein Crossfire-System ist?

So hier jetzt mal die Graka´s auf 900MHz getaktet:
c2851e5wqxo.png

Dafür musste Ich, warum auch immer, den Takt der CPU auf 3,7GHz setzten.... Auf 3,8 ist er mir im Physik-Test abgeschmiert...*noahnung*
Lasse jetzt mal ein Stündchen Prime95 laufen bei 3,8GHz. Sieht bis jetzt ganz stabil aus.... Keine Ahnung warum der bei 3DMark abgeschmiert ist...
Was auch noch nervt ist dieses Bildschirmflackern, dass immer nur auf einem Bildschirm auftritt bei 900MHz GPU-takt. Zuerst wars nur auf dem 17"er.... Jetzt ist es auf dem 24"er aber dafür nicht auf dem 17"er...... Was kann das bloß sein????
 
der falsche takt?? ist doch klar, dass die fehler, die nur unter OC auftreten am OC liegen.. *gg*


(..)

mfg
tobi
 
Ist das Flackern unter Last oder im Desktopbetrieb?
 
@l3eniy

Was dir einen besseren Score beim 11er verhagelt, sind mit nichten die "alten" HD5870 (so wirklich "neues" ist ja danach nicht mehr gekommen, bzw. wirklich performanteres), sondern deine CPU.

Zum Vergleich: Mein 2500K hat bei 4,2GHz ca. 7700 Punkte (Physik-Score). Wenn man dann berücksichtigt das TobiWahnKenobi seinen 2600K bei seinen Benches noch um einiges höher gezogen hat als ich meinen 2500K, kannst du dir vorstellen, warum seine Score so deutlich höher ist. Denn normalerweise nehmen sich GTX560 Ti@OC und eine HD5870 nichts!
 
Habe das Problem mit diesem Bildflackern mal aufgenommen und auf Youtube hochgeladen:
http://www.youtube.com/watch?v=fedh-Tjo08w
Man kann meinen zweiten Bildschirm (17") erkennen. Ich bewege die Maus oder ziehe Fenster über den Bildschirm und es beginnt zu flackern.... Das alles nachdem die beiden 5870er auf 900MHz getaktet wurden. Wenn Ich sie wieder auf 850MHz setzte bleibt das Phänomen aus. Könnte mir jemand erklären warum das passiert und wie Ich das behebe?
 
Deaktivere mal Crossfire im CCC und probiers nochmal mit nur 1 Karte @ 900 Mhz, obs da auch auftaucht.

Wenns dann weg ist mal ULPS abschalten, dies geht aktuell nur per regedit, und ist nen wenig kompliziert zu erklären.Aber wenns hilft schau mal in den Link in miner Signatur ;)
 
Ich habe Crossfire über das CCC ausgeschaltet und zu meinem erstauen flackert das Bild noch immer genauso stark wenn Ich die Karte auf 900MHz setzte.
Was mich auch überrascht ist, dass es manchmal auch mein 24" trifft. Das heißt es flackert immer nach einer deaktivierung von CF oder Kartenübertaktung wahllos einer der beiden Monitore. Ich weiß nicht ob das was damit zu tun haben könnte... Aber kann es sein, dass die Monitore unterschiedlich takten und immer nur einer das passende Bildmaterial in der richtigen Geschwindigkeit zugesendet bekommt? Ich habe echt nicht viel Ahnung von Monitoren, aber da der eine 17" ca. 10Jahre alt und der 24" 2Jahre alt ist, ist das vielleicht ganz andere Technik die nicht zusammen funktioniert..... Wobei es ja im unübertakteten Betrib nicht auftritt.... Macht irgendwie keinen Sinn. Naja auf jeden Fall wackelt das noch immer.... Ich schalt jetzt wieder CF ein und hoffe das wackeln bleibt aucf dem kleinen Monitor:]...
Wenns keine Lösung gibt stell ich die Karten einfach wieder auf 850MHz.... Sollte doch auch reichen ;)
 
850 reicht auch wirklich.
Machs kurz und mach das so und gut is....;)
 
Ja.... Ist halt nur schade diese Möglichkeit der Mehrleistung dann doch nicht nutzen zu können...

Jetzt habe Ich aber noch eine andere Frage die fast schon OffTopic ist aber Ich will jetzt nicht für ein kleines Ja oder Nein einen neuen Thread aufmachen:
ich bin im Begriff mir 2 HD5870(2GB) zu kaufen und meine beiden HD5870(1GB) zu verkaufen. Vom Preis her nimmt sich das am Ende fast garnichts.
Nun bin ich auf folgende Karten gestoßen die mir zu Denken geben:
HD5870(2GB) Eyfinity 6 Edition.
Der Name sagt, dass man an eine Karte 6 Bildschirme anschließen kann. Das ist ja schön und gut... Nur was was sind das bitte für Anschlüsse? Gibt es für diese Anschlüsse(wie auch immer die heißen) Adapter um auf DVI oder HDMI zu kommen? Und Ich hoffe dieser nimmt dann keine Leistung weg.
Zweite Frage:
Was unterscheidet diese Karte von meiner HD5870(1gb) noch außer den 2GB VRAM und diesen Merkwürdigen Anschlüssen? Eigentlich will Ich meine Karte nur in 2GB Version... Da brauche Ich keine insgesamt 12 Anschlüsse ;) Aber wenn das so gehen würde wäre es auch in Ordnung... Anschlüsse haben noch nie jemandem geschadet....
3. Frage:
Ich möchte mir zwei Karten kaufen und sie dann wieder im Crossfire nutzen. Muss die zweite Karte auch eine Eyefinity Edition sein, oder kann Ich da auch eine "normale" 5870 mit 2GB nehmen?
4.Frage:
Mach Ich etwas falsch wenn Ich meine beiden 1GB Karten gegen 2 EyefinityKarten mit 2GB austausche? Ich denke diese 1GB mehr würden ganz gut kommen und dann wäre Ich auch erstmal bis zu den HD7XXX /GTX6XX zu Frieden ;)

Was sagt ihr? DEAL or NO DEAL?
 
Es macht nicht wirklich Sinn hier gleiche Karten zutauschen. Wenn du natürlich +/- Null rauskommt, kann man es machen.

Bei Crossfire sollte man 2 baugleiche Karten einsetzen, dies verhindert eventuelle Unstimmigkeiten beim Treiber etc.

Die Eyefinty-Edition würde ich nicht holen, da man dafür die Displayport-Adapter braucht (falls diese nicht dabei sind). Glaube bei den Eyefinity-6-Karten sind 2 Adapter bei, bei gebrauchten Karten können die schon mal fehlen und dann musste je Adapter nochmal ~20 Euro rechnen.

Wenn du natürlich 5 Bildschirme nebeneinander stellen willst machen diese Sinn :D.

Meine Empfehlung ist immer noch der 1090T + Scythe Mugen 3 (oder vergleichbar) einzubauen.
 
Zuletzt bearbeitet:
Ok, Hab mir den Sammelthread mal durchgelesen ;) Ist ganz interessant und vor allem hilfreich...
Nur wollte Ich noch einmal in Erfahrung bringen warum du meinst, dass Ich einfach nicht mehr als 1GB VRAM benötige... Bei Spielen die viel AA und sonstige Filter nutzen ist viel VRAM doch eine Vorraussetzung oder nicht?

Ich befasse mich noch nicht sooo lange mit dem Thema Hardware wie andere hier... ungefähr vor 2 jahren habe Ich mich angefangen dafür zu Interessieren was unter der Haube meines Gehäuses steckt. Zumal ich auch erst in 4Monaten 18 werde;)... Aber erzählt das nicht EA.... Deswegen müsst ihr mich einfach aufklären wenn etwas einfach blödsinnig ist was Ich vorhabe... Einfach mit Fakten belegen die mich überzeugen ;)...
So kommt es zum Beispiel, dass Ich gelesen habe, dass BF3 bei vielen 1,25<GB Vram gezogen hat... Und dann denke Ich, dass meine 1GB nicht reichen...

Aber Danke an alle die Sich mit meinen Problemen rumschlagen...;)
 
Ich hab nicht gesagt das es keinen Sinn macht. Man muss halt schauen, ob es sich finanziell lohnt bzw was man bereit ist dafür zu zahlen.

Wenn du die Möglichkeit hast für wenig Geld an 2GB zu kommen und du bereit bis dies zu zahlen, will ich es dir nicht ausreden. Wobei man hier auch neure Modelle anschauen sollte, was man hier fürs selbe Geld bekommt.

Bsp wäre hier 6870 im Doppelpack. Gerade bei neueren Spiele DX 11 sollten Sie Vorteile gegen über der älteren Generation haben. Hier mal nen kruzer Test: http://www.hartware.de/review_1186_1.html

Mal schneller mal langsamer. Da Sie aber bei Crysis Warhead schneller ist "sollte" dieses Gespann auch bei BF3 schneller sein.
Aber das kann man aktuell nur vermuten , ohne genaue Tests.
 
Zuletzt bearbeitet:
Ja Ich meinte S.I. damit....
Aber wenn alle meinen, dass 2GB nicht ZWINGEND notwendig sind für mein Vorhaben BF3 mit möglichst hohen Einstellungen im Rahmen meines kleinen Geldbeutels zu spielen, werde Ich euch einfach glauben;D

Letztenendes steht mir ja nichtmal wirklich Geld zur Verfügung um jetzt neue Hardware zu kaufen... Ich würde ja sozusagen tauschen...
Mein Bruder ist sozusagen meine Bank und leiht mir 400€ die Ich ihm dann aber nach dem Verkauf der alten Hardware wieder geben muss... deshalb versuche Ich ohne Geld auszugeben mein System zu optimieren.....;) Das hört sich relativ sinnlos an, da nichts um Sonst ist aber auf Ebay kann man echt gut handeln und sogar manchmal kleine Gewinne verbuchen....
Wie Ich zu Beispiel sehe gehen HD6870(1GB) für 110-140€ über die virtuelle Theke... Meine 5870(1GB) geht für 130-160€ über die Theke.... Und wenn Ich mir Benchmarks von einem 6870 CF System ansehe bin Ich damit besser dran als mit 5870CF...Seht selbst:

Jetzt muss Ich aber erstmal eine fette Gedichtsanalyse für den Deutsch LK schreiben... Bis später ;)

EDIT: Ich nehme alles zurück.... irgendwie sind 2 6870 doch nicht besser als 2 5870er..... Ist wohl davon abhängig wann getestet wurde, da die Karten in manchen test shclecht und in manchen sehr gut skalieren....
Scheiß drauf... Ich bleib bei 2x5870(1GB)... Werde ja sehen wie es laufen wird... ;)
 
Zuletzt bearbeitet:
Jein, du wirst grob keinen unterschied merken, da bei den ganzen Benchmarkzeugs deine CPU begrenzen wird. Das ist aber nicht so schlimm, da es in Spielen komplett anders ausehen kann.
Der Tausch macht eigentlich nur Sinn, wenn man bei der 6870 die 2 GB Version nimmt.
http://ht4u.net/reviews/2011/amd_radeon_hd_6870_2gb_vs_1gb_test/

Desweiteren drängelt ja keiner und wenn du übers Verkaufen nachdenkst, rechne immer mit dem niedrigsten Preis. Aber 130 Euro sollten bei Ebay aktuell mindestens rausspringen, ne vernünftige Beschreibung und gute Bilder helfen da sehr viel.

So kümmer dich um deine Schule, da kannste dann später viel schönere Sachen kaufen ;) Viel Erfolg.
 
Zurück
Oben Unten