AMD Radeon RX 460/470/480/550/560/570/580/590: Tests/Meinungen im Netz. Links in Post 1

achso, wenn ich mir nen gesunden salat mache, darf ich nachher kein fettiges schnitzel mehr essen. eine sehr absolutistische sichtweise.
Kommt drauf an, wie man das darstellt...

Aber wenn jemand mit 'nem X58 System, der die CPU mit 1,45V betreibt, das ganze natürlich an einem alten, nicht 80plus zertifiziertem Netzteil, hinstellt und behauptet, ihm ist die Effizienz der Grafikkarte wichtig, wie glaubwürdig ist das denn bitteschön?

nur weil man beim größten verbraucher in einem pc auf den verbrauch achtet, heißt das noch lange nicht, dass man das bis hin zum letzten lüfter durchziehen muss. ich für meinen teil bin durchaus ein der lage prioritäten zu setzen und abzuwägen, was mir wann, wo und warum wichtig ist und was nicht.
Jetzt mal eine Frage an dich:

Reden wir hier von signifikaten Unterschieden, die NICHT durch die Varianz bei der Fertigung ausgeglichen werden könnten?
 
den schalter gibt es aber schon länger !? seit der version 16.3.

http://www.pcgameshardware.de/AMD-C.../163-Beta-Performance-Verbesserungen-1188752/

Unter den gelösten Problemen nennt AMD nun einen Workaround, der heruntertaktende Radeon-GPUs betrifft, deren volle Leistung eigentlich benötigt würde. Dazu wurde ein Power Efficiency Toggle in die Radeon Settings integriert, bei dessen Deaktivierung die GPUs nicht mehr fälschlicherweise ihren GPU-Takt senken sollen. Dadurch wiederum sollen Ruckler und Bildfehler behoben werden. In den kommenden Crimson-Treibern soll das Problem richtig behoben werden und die Effizienzoption für einzelne Spieler einstellbar sein.
 
Keine Ahnung erst von kurzen was gelesen aber im letzten Abschnitt steht ja
In den kommenden Crimson-Treibern soll das Problem richtig behoben werden und die Effizienzoption für einzelne Spieler einstellbar sein.
 
Es gibt immer Argumente für die eine Karte und Gegenargumente für die anderen:)

Untern strich sind doch beides immoment tolle Karten oder ?

Darum, also ernsthafte Argumente, ging es doch garnicht.
Klassische Beispiele der letzten Generationen sind hier der Speicher Ausbau, die Baugröße und natürlich auch die Leistung.
Zur Not misachtet man einfach die Preisklassen damit die Argumentation aufgeht oder stützt seine Effizienz Aussagen bei OC Modellen auf Test Ergebnissen von auf sparsam gedrosselten Referenz Modellen.

Nur als Beispiel, bei den Kepler Modellen hieß es immer wieder das die 2 GB der GTX680 und die 3 GB der GTX780(Ti) ach so ausreichend gewesen wären und die 3 GB der HD7970 bzw. die 4 GB der R9 290(x) ach so überflüssig wären aber bei der Fury waren die 4 GB dann auf einmal ein Weltuntergang. das gleiche dämliche Spiel wiederholt sich aktuell bei der GTX1060 und der RX480. Auch die bei den Radeons fast schon traditionell höhere Baugröße war bei den Fury Modellen auf einmal egal. Ähnliche Beispiele gab es auch beim Strombedarf, dem DX Support/feature Level und diversen anderen Punkten.
 
Boah Payne, lass deine nervige Wortverdreherei.

Nein, ich widerspreche mir nicht. Lies meine Beiträge einfach nochmal richtig. Wie schon mehrfach gesagt, achte ich auch bei den anderen Komponenten auf Einergieeffiziez. Und wie ebenfalls schon mehrfach gesagt, ist auch bei mir die Energieeffizienz nicht das absolut oberste Kaufkriterium, sondern ein sekundäres. Auch bei Grafikkarten.

Mag sein, dass ich mit einem anderen Netzteil 10W sparen könnte, aber meine damaligen Gründe, dieses 730W-Netzteil zu kaufen, habe ich genannt: Ich wollte mir zum damaligen Zeitpunkt SLI-/Crossfire offen halten und eben der Anschaffungspreis. Ich schrieb auch nirgends, dass ich heute das gleiche Netzteil wieder kaufen würde. Aber danke für deinen sicherlich ganz nett gemeinten Tipp, beim nächsten Mal kaufe ich mir ein sparsameres Netzteil. Je nachdem, wie die kommenden Grafikkarten aussehen und dann eine Entscheidung fällt, wird dann ohnehin ein anderes Netzteil angeschafft, da sich dann vermutlich das Thema SLI/Crossfire für mich erstmal komplett erledigt haben wird. Dann kommt da ein sehr sparsames ~450-500W Netzteil rein. Da kann ich ja dich dann fragen als Netzteil-Spezi und absolut hilfreichen, netten Menschen.

"Es ist _NICHT_ Legitim, nur bei bestimmten Bauteilen auf Sparsamkeit zu achten und das als das einzig wahre herauszustellen." -> Habe ich nirgends als "das einzig Wahre" hingestellt. Einfach nur falsch. Das ist immer diese typische Wortverdreherei von dir. Ich habe hier meine Gründe genannt, warum für mich die Energieeffizienz bei einer Grafikkarte durchaus ein (wenn auch sekundäres) Kaufkriterium ist, weil andere hier das Thema angefangen haben. Das habe ich weder als "das einzig Wahre" hingestellt, noch müssen andere das genauso sehen. Wem die Leistungsaufnahme egal ist -> bitteschön, das ist völlig legitim. Aber vielen ist sie eben nicht egal. Hätte ich im Hobbyraum unter'm Dach nicht ein Hitzeproblem im Sommer, wäre mir die Energieeffizenz wohl auch recht egal. Da das aber nunmal der Fall ist, wurden diverse Komponenten auf sparsamere neue Komponenten umgestellt (wie der Fernseher, der alte hat mal locker 150W mehr gezogen) und sicherlich gibt es auch noch Verbesserungspotenzial, weitere Dinge zu verbessern -> habe nie etwas Gegenteiliges behauptet.

Und nein, ich war es nicht, der das Thema hier aufgebauscht hat, das wart ihr. Ich schrieb lediglich, dass 30W sehr wohl einen Unterschied für mich machen und habe dann hinterher auch hinreichend erklärt, warum. Aber diese Meinung können einige Leute natürlich nicht respektieren, solange nicht AMD die sparsameren Karten herstellt. Ihr sagt: 30W Unterschied bei einer Grafikkarte sind egal und sprecht der Energieeffizienz als Kaufkriterium praktisch jegliche Legitimität ab (ich las hier z. B. "irrelevant"). Ich sage: Nein, 30W sind nicht egal. 30W sind 30W. Punkt.

Oh, zu schreiben "so deine einseitige Sichtweise" (bezogen auf deinen Kommentar, dass das Thema Energieeffizienz "ausgeschlachtet wird so gut es geht" und "extremst darauf rumgeritten" wird - damit hast du dieses Thema hier aufgebauscht) ist für dich also "unnötig Öl ins Feuer gießen" und "ziemlich von oben herab und 'auf krawall gebürstet'"? Oooookay :] Na dann haben wir eine extrem unterschiedliche Auffassung von "von oben herab" und "auf Krawall gebürstet". Denn für mich ist deine grundsätzlich extrem nVidia-feindliche und nVidia-Käufer-anfeindende Argumentationsweise in vielen Threads hier sehr von oben herab. Meist sogar sehr aggressiv.
Und wenn sich Leute von dem Wort "nVidia Hater" beleidigt fühlen.... okay :] Sorry nochmal, dass ich deine Gefühle verletzt habe :]
 
Zuletzt bearbeitet:
kommt mal wieder runter. jeder hat andere präferenzen. jeder bewertet das thema anders. das sollte man ganz einfach mal respektieren.
 
[3DC]Payne;5113488 schrieb:
Kommt drauf an, wie man das darstellt...

Aber wenn jemand mit 'nem X58 System, der die CPU mit 1,45V betreibt, das ganze natürlich an einem alten, nicht 80plus zertifiziertem Netzteil, hinstellt und behauptet, ihm ist die Effizienz der Grafikkarte wichtig, wie glaubwürdig ist das denn bitteschön?
Nicht sehr. Aber das ist bei mir ja auch alles nicht der Fall. Bei mir ist nichts übertaktet und die Komponenten sind alle vergleichsweise energieeffizient. Hier und da noch verbesserungsfähig, keine Frage.

kommt mal wieder runter. jeder hat andere präferenzen. jeder bewertet das thema anders. das sollte man ganz einfach mal respektieren.

Wie wahr.
 
Und nein, ich war es nicht, der das Thema hier aufgebauscht hat, das wart ihr.
Es wäre schön, wenn du aufhören würdest, mit dem Finger auf andere zu zeigen...
Wir haben hier über das Thema geredet und gefachsimpelt, bis du dann hier rein kamst und andere persönlich angegangen bist...

Die von dir vorgebrachte Formulierung ist schon ziemlich frech von dir gewesen.
Zumal du auch in dem Fall, dass du austeilst, was du ja ohne Zweifel getan hast, auch einstecken können musst...

Aber warum musst DU immer versuchen die ganzen Threads aus dem Ruder laufen zu lassen?
Ich verstehe dich echt nicht...

Ich sage: Nein, 30W sind nicht egal. 30W sind 30W. Punkt.
Noch einmal:
bitte beachte die Varianz, die bei der Halbleiterfertigung auftritt!
Denn die 30W, auf denen DU die ganze zeit hier rumreitest, können schlicht durch 'golden Sampling' seitens nVidia verursacht werden. Ganz einfach indem man die besten Chips, die man hat aussiebt und an die Presse weitergibt...

Von daher wäre es schön, wenn du diesen Betrag nicht weiter aufbauschen würdest. Denn woher weißt du, dass es bei jeder Grafikkarte so ist? Das ist eben ganz und gar nicht so. Zwischen zwei identischen Karten gab es schon vor mehreren Jaren eine Differenz von ~20W...

Das ganze wird heute wohl kaum geringer ausfallen...

Schaue dir bitte mal den Titel dieses Threads an...
Das sollte dieses beantworten...

Ich verstehe nicht, warum man in AMD Threads immer bei jeder sich bietenden Möglichkeit, die AMD Sachen niedermachen und die Teile von den anderen loben muss...
 
Zuletzt bearbeitet:
[3DC]Payne;5113517 schrieb:
Ich verstehe nicht, warum man in AMD Threads immer bei jeder sich bietenden Möglichkeit, die AMD Sachen niedermachen und die Teile von den anderen loben muss...
Schon wieder diese Wortverdreherei. Ich habe hier nirgendwo irgendwas von AMD niedergemacht und auch keine nVidia Karte gelobt. Für mich geht es hier nicht um AMD vs. nVidia. Wenn ich zwei Karten mit vergleichbarer Performance und ähnlichem Preis habe, aber die eine 30W weniger verbraucht, nehme ich die, die weniger verbraucht. Egal ob AMD oder nVidia.

--- Update ---

[3DC]Payne;5113517 schrieb:
Noch einmal:
bitte beachte die Varianz, die bei der Halbleiterfertigung auftritt!
Denn die 30W, auf denen DU die ganze zeit hier rumreitest, können schlicht durch 'golden Sampling' seitens nVidia verursacht werden. Ganz einfach indem man die besten Chips, die man hat aussiebt und an die Presse weitergibt...
Es ging (mir) hier nicht um konkrete Karten, falls du das nicht verstanden hast. Ich habe ja auch nirgendwo was von RX480 oder so geschrieben. Die 30W waren nur eine rein aus der Luft gegriffene, beispielhafte Zahl. Sind es zwischen GTX1060 und RX480 30W? Keine Ahnung, kann ich nicht sagen *noahnung*
 
Irgenwie habe ich jetzt eine Ahnung, wie es zu Kriegen kommen kann :-/, obwohl alle und jeder für sich - nur die höchsten Ideale vertreten.
 
Ich finde es gerade einfach nur Kindisch, Payne soll Thunderbirds 30W halt 30W sein lassen... Das man die im Sommer nur Subjektive in einem Zimmer spühren kann seis drum. Und Thunderbird soll halt kaufen was er will.
Persönliche Kaufentscheidungen und Missonierungsversuche egal in welche Richtung gehören nicht in diesen Threat. Hier ging es um eigentlich nur um AMD RX480/470/460 Karten, ihren Launch und wie sie in der Presse wegkommen.

Back to Topic:
Ich bin seit gestern stolzer besitzer einer Sapphire RX480 Nitro. Die ist im Silent-BIOS um Welten besser als das Rev Designe (hatte ich 2 Tage im Test, dann Reture weil schrecklich laut). Bei einem kurzen Undervolting Versuch genstern abend musste ich aber Feststellen das meine Einstellungen im WattMan auf die Spannung (ausgelesen mit GPU-Z) keinen Einfluss haben. Takt und andere Änderungen werden anstandslos übernommen.

Hat hier schon jemand Erfahrung mit der Karte? Kann es am Treiber oder am BIOS liegen das die Einstellungen nicht übernommen werden?

Grüße Cres,

P.S.: Bevor ich gefragt werde warum ich die Sapphire genommen habe und nicht den Roten Teufel: Für mich war die Baulänge der Karte entscheident da mein Gehäuse recht klein ist.

P.P.S.: Ich habe die Karte für unter 300€ dank Mitarbeiter Rabatt bekommen. Dies deutet darauf hin das die Marge für die Händler noch recht groß ist. Der Preis wird für normalsterbliche Kunden in den nächsten Wochen also noch fallen.
 
Mal kurz eine Frage ich glaube hier schrieb es jemand, was bedeutet eigentlich die ASIC Qualität die mir von GPU-Z angezeigt wird?

dann mal ganz Speziell in diesem Fall ich schnall das nicht so wirklich

Anhang anzeigen 34675
 
Steht doch unten erklärt. Wenn du einen hohen ASIC-Wert hast, brauchst du weniger Spannung pro Takt und somit weniger Verbrauch. Damit geht dann OC besser.

Direkt hat der Wert wohl was mit den Leckströmen zu tun.
 
Danke erstmal, ich meinte in dem Fall eigentlich auch ob das jetzt gut oder schlecht ist was da steht :P
 
Danke erstmal, ich meinte in dem Fall eigentlich auch ob das jetzt gut oder schlecht ist was da steht :P

Das ist ein recht durchschnittlicher Wert. Manche herausragende Karten haben über 100%. Muss aber nichts heißen. Bei niedrigeren Leckströmen mag die Wahrscheinlichkeit, gut übertakten zu können, höher sein, aber ein Garant ist es nicht. Es gibt auch immer wieder Leute, die mit niedrigeren ASIC-Werten sehr gut übertakten.
 
Also ist das quasi einfach schön zu wissen sagt aber eigentlich doch nicht wirklich was aus :P
 
Doch und zwar wo dein Chip auf dem Wafer war je höher der Wert desto besser also Wafer Mitte .
 
Hast du doch nichts von wenn er nicht wirklich besser ist als die anderen :D egal war nur ein interessen Ding ;)
 
Ich glaube meine rx480 hat ein weg. Die rennt mit 100% gpu load ohne last. Entweder liegt das an Steam,treiber oder defekt.
 
jo hat meine auch ;) starte mal neu dann ist das weg xD
noch seltener tritt das mit crimson 16.7.3 auf ;)
 
jo hat meine auch ;) starte mal neu dann ist das weg xD
noch seltener tritt das mit crimson 16.7.3 auf ;)

neustart hilft weiss ich, ist aber nervig. meine hat ein wert von 85,4.
 
Mal wieder etwas für interessierte

4096MB ASUS Radeon RX480 2xDP/H/DVI

235€

Das dürfte ja für die Interessant sein die den von AMD genannten Preis der 4GB Version dort hin Prognostiziert hatten


---UPDATE---

Ich habe da jetzt nochmal drüber nachgedacht, ist das jetzt nun ein Treiberproblem oder ein Hardwareproblem?
Klagen über das Problem auch viele andere Nutzer oder eher nicht so?`

Ich mein die Karte verbrennt ja auch sinnlos Strom wenn sie dauerhaft auf 1266MHz läuft anstatt sich herunter zu takten, hinzu kommen die Probleme das die Treiber scheinbar und ohne jeglichen Grund manchmal stundenlang Stabil laufen und dann zig mal hintereinander ohne Grund Crashen .... samt der Spiels versteht sich
An sich scheint es für mich ein Treiberproblem zu sein aber obs das wirklich ist weiß ich halt nicht, Treiber dann muss man halt Geduld und Hardware geb ich einfach ab auf Grantie was in dem Fall natürlich das angenehmere wäre
 
Zuletzt bearbeitet:
Zurück
Oben Unten