AMD Radeon RX 460/470/480/550/560/570/580/590: Tests/Meinungen im Netz. Links in Post 1

Zusammengefasst:
- rel. hoher Stromverbrauch bei Multi-Monitor
...was in Zeiten, in denen über 90% aller am Markt erhältlichen CPUs eine integrierte Grafikeinheit besitzten, jetzt genau welche Relevanz hat?!
Du kannst ja, nachdem du ULPS abgeschaltet hast, bis zu 3 Schirme an die CPU Anschließen. Wir reden hier also über mindestens 4 Schirme...

Und wenn die auch noch über ein CCFL verfügen, dann verbraten die beiden Schirme allein schon bis zu etwa 300W...
 
[3DC]Payne;5102390 schrieb:
...was in Zeiten, in denen über 90% aller am Markt erhältlichen CPUs eine integrierte Grafikeinheit besitzten, jetzt genau welche Relevanz hat?!
Du kannst ja, nachdem du ULPS abgeschaltet hast, bis zu 3 Schirme an die CPU Anschließen. Wir reden hier also über mindestens 4 Schirme...

Und wenn die auch noch über ein CCFL verfügen, dann verbraten die beiden Schirme allein schon bis zu etwa 300W...

Und den kann man noch erheblich senken wenn man den Ram von Hand runter Taktet.
 
Der hohe Stromverbrauch an sich würde mich nicht stören und auch den Gamer als solchen nicht. Ich jedenfalls habe noch nie einen Gamer getroffen, der sich auch nur ein Iota um den Stromverbrauch seiner Grafikkarte geschert hätte. Wichtig ist für die nur was am Ende dabei herauskommt und was es kostet. In Sachen Preis/Leistung scheint die Karte ja ganz gut zu sein und in den nächsten Wochen wird der Preis sicherlich noch runter- und die Leistung durch optimierte Treiber nach oben gehen. Zu dem Preis gibt's ja anscheinend weit und breit keine schnellere Karte wenn ich das richtig sehe, also wo ist das Problem? *noahnung*

Nur dass die Grafikkarte anscheinend die PCI-Express-Limits reißt und damit Schäden am Board verursachen könnte, das schmeckt mir gar nicht. 8-( Mal sehn wie die Custom-Boards werden.
 
Puh da habe ich richtig gepokert und mir eine gebrauchte 970 zum Schnapperpreis gekauft. Die RX 480 kann zwar mit der 970 mithalten, aber bis der minimal geringere Stromverbrauch bei meinem Nutzungsprofil (rund 30h pro Woche ist der PC überhaupt an, davon vielleicht 10-15 zum zocken) eine Auswirkung hätte.....

Schade eigentlich dass AMD es nicht einmal schafft eine zwei Jahre alte GPU zu schlagen, aber warten wir mal ab ob es noch eine größere Variante - eine 490X oder ähnliches geben wird.

Spätestens mit der 1060 von Nvidia wird sich dann zeigen, wie weit der Preis der 480 fallen muss um attraktiv zu werden.
 
Schade die XFX Black ist echt ne schöne Karte:

IMG_20160630_123922054.jpg

IMG_20160630_121852091.jpg

Doof nur wenn der HDMI Port kaputt ist und die Karte zurück muss ...
 
Wo aktuell eine 970 eine Alternative sein soll erschließt sich mir nicht.

- Speicheranbindungsproblem (3,5/0,5)
- weniger VRAM
- weniger Performance
- kein DP 1.4
- kein HDMI 2.0 MIT HDPC 2.2
- Async Compute Schwäche
- schlechtere DX12 Performance

um ein paar Nachteile zu nennen.

Aber wenn du mit der 970 zufrieden bist ist das ok, ich würde das keinem bei einer aktuellen Anschaffung empfehlen.
 
Zuletzt bearbeitet:
Doof nur wenn der HDMI Port kaputt ist und die Karte zurück muss ...

Ist das nur der HDMI-Port? Funktionieren die DP wenigstens? Ob es nur eine bloße inkompatibilität ist? Trotzdem nicht hübsch.
 
Ist das nur der HDMI-Port? Funktionieren die DP wenigstens? Ob es nur eine bloße inkompatibilität ist? Trotzdem nicht hübsch.

Kann ich dir leider nicht sagen da ich keine Hardware habe die nen DP Eingang hat ...

Ich kann nur so viel sagen das 4 verschiedene HDMI Kabel keinen Unterschied gemacht haben, dazu habe ich halt meinen Monitor und 2 Phillips TVs getestet. Die GTX 780 läuft über HDMI.

Jetzt nutze ich wieder DVI. Wollte wenn von DVI auf DP umsteigen inkl. Freesync Moni aber mir ist erstmal die Lust vergangen :)
 
Das hatten auch andere Seiten schon in ihren Reviews festgestellt, auch interessant ist das "undervolten" auch zu mehr Performance führt auf Standard Powertarget (Computerbase z.B.)

Je nach dem, wie man die niedrigeren Spannungen einsetzt, fällt der Nutzen anders aus. Bei dem Standard Power-Target erhält man eine höhere Performance bei identischer Leistungsaufnahme als bei den Standard-Spannungen. Bei maximiertem Power Target gibt es bei derselben Leistung eine geringere Leistungsaufnahme und einen niedrigeren Geräuschpegel.
 
Zuletzt bearbeitet:
Was mir bei den Tests unangenehm auffiel war das sie bei diversen Tests in höheren Auflösungen genauso einknickte wie die Maxwell Karten, woraus ich schließe das die Kompression kaum was bringt und dafür ganz einfach mehr Bandbreite erforderlich ist.
 
Wo aktuell eine 970 eine Alternative sein soll erschließt sich mir nicht.
- Speicheranbindungsproblem (3,5/0,5)
- weniger VRAM
- weniger Performance
- kein DP 1.4
- kein HDMI 2.0 MIT HDPC 2.2
- Async Compute Schwäche
- schlechtere DX12 Performance

Lass dich nicht provozieren. Angeblich hat er eine 970 zum Schnapperpreis (20 Eur oder so) gebraucht gekauft. "Gebraucht" ist ein Totschlagargument und nicht verifizierbar.
Ein Sonderposten, dem man keine Bedeutung schenken muss. Ich kann mich auch hinstellen und behaupten eine FuryX für 50 Euro gekauft zu haben und mich über die Idioten amüsieren, die eine GTX1070 für knapp 500€ gekauft haben. Kinderkacke soetwas...
 
Zuletzt bearbeitet:
Im grunde genommen hatte er sich bereits damit ins Aus geschossen weil er neu mit gebraucht Preis vergleicht.
 
Nur dass die Grafikkarte anscheinend die PCI-Express-Limits reißt und damit Schäden am Board verursachen könnte, das schmeckt mir gar nicht. 8-( Mal sehn wie die Custom-Boards werden.
Anddill hat das mal ausgerechnet, im 3DCenter Forum.

Und ganz ehrlich: Das ist zwar richtig, die Auswirkungen in der Praxis sind aber kaum relevant, darfst halt nur nicht zu viel übertakten...

Wir reden hier ja nicht von 100W via PCIe und 50W via Stecker sondern um einen Betrag, der gerade mal 10% über der Spezifikation liegt - insbesondere für Dual GPU Boards kein größeres Problem...

Also hier wird wieder etwas heißer gekocht als gegessen und einfach nur 'wild auf AMD geprügelt'...
 
Das jeweils andere Lager sucht immer das Haar in der Suppe des anderen. Bei der GTX 1080 hat man ähnliches gemacht.

Es ist nicht mehr als ein Schönheitsfehler, der aus verschiedenen Gründen etwas aufgebauscht wird.
 
[3DC]Payne;5102471 schrieb:
Also hier wird wieder etwas heißer gekocht als gegessen und einfach nur 'wild auf AMD geprügelt'...

Es mag sein, dass das Thema aufgebaucht wird, aber trotzdem scheint es ja so zu sein, als würde man sich außerhalb der Spezifikationen bewegen. Sowas ist nicht gut und naturgemäß eine Steilvorlage für alle Hardcore-Kritiker. So etwas darf einfach nicht passieren, dann kloppt man eben einen 8pin Stromanschluss drauf und legt einen Adapter bei, das kostet nur ein paar Cent.
 
Ich würde hier mal nach Überprüfung von AMD und dann deren Aussagen dazu abwarten bevor man das bewertet. Unschön ist es, aber ich habe mir mal einige Tests bei THG durchgelesen und es scheint leider kein Einzelfall zu sein (1070 FE, GTX 960/750ti).

--- Update ---

Lass dich nicht provozieren.

Gilt nur zu verhindern das das jemand ernst nimmt ;)
 
Zumindest das Testmuster bei PCI-SIG hat ja die Spezifikationen eingehalten, evtl. ist es nur ein Treiberproblem.
 
Es mag sein, dass das Thema aufgebaucht wird, aber trotzdem scheint es ja so zu sein, als würde man sich außerhalb der Spezifikationen bewegen. Sowas ist nicht gut und naturgemäß eine Steilvorlage für alle Hardcore-Kritiker. So etwas darf einfach nicht passieren, dann kloppt man eben einen 8pin Stromanschluss drauf und legt einen Adapter bei, das kostet nur ein paar Cent.

Dann wäre aber der hohe Verbrauch offensichtlich und das Marketing hätte noch mehr Probleme, als so schon das Blei leicht wie eine Feder zu reden.
 
[3DC]Payne;5102390 schrieb:
...was in Zeiten, in denen über 90% aller am Markt erhältlichen CPUs eine integrierte Grafikeinheit besitzten, jetzt genau welche Relevanz hat?!
Du kannst ja, nachdem du ULPS abgeschaltet hast, bis zu 3 Schirme an die CPU Anschließen. Wir reden hier also über mindestens 4 Schirme...

Und wenn die auch noch über ein CCFL verfügen, dann verbraten die beiden Schirme allein schon bis zu etwa 300W...

Weil es durchaus Leute gibt, die an einer dGPU mehrere Monitore betreiben? Und am ULPS herumzuwerkeln kann nur wirklich keine Lösung sein. Verstehe deine Antwort irgendwie nicht, ergibt keinen Sinn bzgl. des hohen Stromverbrauchs. Und was die Monitore für Strom ziehen ist doch total unabhängig davon, ob die Karte heruntertaktet oder nicht. Strom wächst nicht auf den Bäumen...


Und den kann man noch erheblich senken wenn man den Ram von Hand runter Taktet.

Was für den durchschnittlichen Anwender genau wie relevant ist? Eben, gar nicht.


EDIT:
2x Karten bestellt.
 
Zurück
Oben Unten