News AMD stellt ATI Radeon HD 5800er Serie vor

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.392
Renomée
9.739
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
Mit dem ATI Radeon HD 5870 und ATI Radeon HD 5850 stellt AMD die beiden ersten Grafikchips der HD 5800er Serie vor, die unter dem Codenamen "Cypress" entwickelt wurden. Diese bieten neben einer Unterstützung von DirectX 11 auch neue Features wie zum Beispiel <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1252649209">ATI Eyefinity</a> und einen verbesserten Stromverbrauch im Idle-Betrieb.

<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=7531"><img src="http://www.planet3dnow.de/photoplog/file.php?n=7531" border="1" alt="AMD ATI Radeon HD 5800"></a></center>

Karten mit den beiden Chips sind für den sogenannten Performancebereich vorgesehen und sollen laut AMD im Falle der ATI Radeon HD 5870 für 339 bis 349 Euro und im Falle der ATI Radeon HD 5850 für 229 bis 239 Euro erhältlich sein.

<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=7536"><img src="http://www.planet3dnow.de/photoplog/file.php?n=7536" border="1" alt="AMD ATI Radeon HD 5800"></a></center>

Im Laufe dieses Jahres sollen dann noch die Dual-GPU "Hemlock" für den Enthusiasten und mit dem "Juniper" ein Chip für den Bereich unter 200 US-Dollar Verkaufspreis folgen.

<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=7532"><img src="http://www.planet3dnow.de/photoplog/file.php?n=7532" border="1" alt="AMD ATI Radeon HD 5800"></a></center>

Die reinen Leistungsdaten bestätigen die in den letzten Wochen gehandelten Spezifikationen und zusätzlich verweist AMD auf die Verbesserungen bei der ATI PowerPlay Technik, die nun eine Leistungsaufnahme von 27 Watt im Idle-Betrieb erlauben.

<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=7535"><img src="http://www.planet3dnow.de/photoplog/file.php?n=7535" border="1" alt="AMD ATI Radeon HD 5800"></a></center>

Von AMD bereitgestellte Benchmarks (Auflösung 2560x1600) zeigen die beiden Karten mit teils deutlichem Vorsprung vor entsprechenden Produkten von Konkurrent NVIDIA.

<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=7537"><img src="http://www.planet3dnow.de/photoplog/file.php?n=7537" border="1" alt="AMD ATI Radeon HD 5800 Benchmarks"></a></center>

Auf erste unabhängige Benchmarks darf man gespannt sein.
 
Spannend wird auch, wie schnell die Linux-Treiber die neue Generation unterstützen und welche Performance da zu erzielen ist.
 
Wie sieht dass denn bei den 48xxern jetzt mit Powerplay aus?
Kann man die 48xxer zusätzlich manuell dazu überreden weniger Strom im Leerlauf zu verbrauchen (Takt + Spannung senken)?
 
... Von AMD bereitgestellte Benchmarks (Auflösung 2560x1600) zeigen die beiden Karten mit teils deutlichem Vorsprung vor entsprechenden Produkten von Konkurrent NVIDIA.

a) Vorabtests sind stets mit Vorsicht zu genießen
b) AMD führt seine neue Chipsatzgeneration etwas früher als nVidia ein, warten wir doch erst mal ab, was AMDs RV870 gegen einen GT300 zu bieten hat, wenn beide Typen wirklich frei verfügbar sind.

Sofern man seine Graphikkarte nicht nur zum Spielen einsetzt, gibt es keinen triftigen Grund eine AMD/ATi-Karte zu erwerben. Die OpenSource-Unterstützung ist nach wie vor bei modernen Karten sowohl bei AMD als auch bei nVidia schlecht (setzt man UNIX und nicht Linux ein oder vermeidet prinzipiell BLOBs, ist es gehopst wie gesprungen). Derzeit ist die Unterstützung im wiss. Sektor durch CUDA ein deutlicher Pluspunkt und suggestiv erscheint mir im Hause die Beschleunigung der Adobe CS4, die GPGPU unterstützen soll, auf allen nVidia Karten, beginnend mit der 8800GTX, wesentlich deutlicher als auf den eingesetzten AMD Karten (beginnend mit 4670, 4850 bis hin zur 4870). Auf den Nicht-Linux-Systemen, die mit einem Berkeley-UNIX betrieben werden und unter 64 Bit im wiss. Betrieb laufen, ist aufgrund der nicht verfügbaren 64Bit BLOBs der Einsatz der 4670 Karten nicht möglich, sofern man DRI benutzen möchte.

Auch wenn die theoretische Leistung der AMD Chips im GPGPU-Betrieb höher sein sollte, so bin ich ob dessen, was realisiert wird, enttäuscht. Also, warum eine 5850 oder 5870 kaufen?
 
a) Vorabtests sind stets mit Vorsicht zu genießen
b) AMD führt seine neue Chipsatzgeneration etwas früher als nVidia ein, warten wir doch erst mal ab, was AMDs RV870 gegen einen GT300 zu bieten hat, wenn beide Typen wirklich frei verfügbar sind.

Sofern man seine Graphikkarte nicht nur zum Spielen einsetzt, gibt es keinen triftigen Grund eine AMD/ATi-Karte zu erwerben. Die OpenSource-Unterstützung ist nach wie vor bei modernen Karten sowohl bei AMD als auch bei nVidia schlecht (setzt man UNIX und nicht Linux ein oder vermeidet prinzipiell BLOBs, ist es gehopst wie gesprungen). Derzeit ist die Unterstützung im wiss. Sektor durch CUDA ein deutlicher Pluspunkt und suggestiv erscheint mir im Hause die Beschleunigung der Adobe CS4, die GPGPU unterstützen soll, auf allen nVidia Karten, beginnend mit der 8800GTX, wesentlich deutlicher als auf den eingesetzten AMD Karten (beginnend mit 4670, 4850 bis hin zur 4870). Auf den Nicht-Linux-Systemen, die mit einem Berkeley-UNIX betrieben werden und unter 64 Bit im wiss. Betrieb laufen, ist aufgrund der nicht verfügbaren 64Bit BLOBs der Einsatz der 4670 Karten nicht möglich, sofern man DRI benutzen möchte.

Auch wenn die theoretische Leistung der AMD Chips im GPGPU-Betrieb höher sein sollte, so bin ich ob dessen, was realisiert wird, enttäuscht. Also, warum eine 5850 oder 5870 kaufen?

Das ist keine Profikarte und Zocker sind die Hauptzielgruppe.

Ich kann deine Frage nicht nachvollziehen.


MfG @
 
a) Vorabtests sind stets mit Vorsicht zu genießen
b) AMD führt seine neue Chipsatzgeneration etwas früher als nVidia ein, warten wir doch erst mal ab, was AMDs RV870 gegen einen GT300 zu bieten hat, wenn beide Typen wirklich frei verfügbar sind. ...
Erst mal Glückwunsch zum Start der ersten DirectX-11 Karte.

Bei einer TDP max 190 Watt ist ein Idle-Wert von unter 30 Watt eine Marke. Bin mal auf die Mittelklasse mit den RV840 und RV830 gespannt.

Aber Was ist BLOB und DRI ?

MFG Bobo(2009)
 
Das geht mit dem Test von Techpowerup konform.
Idle-Verbrauch wenig, Last-Verbrauch unter einer HD 4890.
Scheint eine nette Karte zu sein, nun muss es sie nur noch zu kaufen geben.
Link
 
Bei ht4u wurden "nur" rund 40db gemessen. Krasser unterschied. Aber die Sone werte sind eh besser zu vermitteln und mit bis zu 5 sone ist das schon sehr laut.
 
Die HD5870-Karte finde ich gesamtheitlich recht gut.
In Idle hat sie nicht nur 27Watt oder etwas weniger, sondern soll fast unhörbar sein.

Das ganze Lüftungssystem dürfte für einen Referenz-Kühler ziemlich gut sein.
 
Die HD5870-Karte finde ich gesamtheitlich recht gut.
In Idle hat sie nicht nur 27Watt oder etwas weniger, sondern soll fast unhörbar sein.

Das ganze Lüftungssystem dürfte für einen Referenz-Kühler ziemlich gut sein.

27 W leise wegzukühlen sollte aber auch nicht das Problem sein ;)

3wayportrait.jpg



Their goal was to get idle power down to 30W, 1/3rd that of RV770. What they got was even better: they came in past that target by 10%, hitting a final idle power of 27W. As a result the Cypress can idle at 30% of the power as RV770, or as compared to Cypress’s load power of 188W, some 14% of its load power.

...

With Cypress AMD has implemented nearly the entire suite of GDDR5’s power saving features, allowing them to reduce the power usage of the memory controller and the GDDR5 modules themselves. As with the improvements to the core clock, key among the improvement in memory power usage is the ability to go to much lower memory clock speeds, using fast GDDR5 link re-training to quickly switch the memory clock speed and voltage without inducing glitches. AMD is also now using GDDR5’s low power strobe mode, which in turn allows the memory controller to save power by turning off the clock data recovery mechanism. When discussing the matter with AMD, they compared these changes to putting the memory modules and memory controller in to a GDDR3-like mode, which is a fair description of how GDDR5 behaves when its high-speed features are not enabled.

Finally, AMD was able to find yet more power savings for Crossfire configurations, and as a result the slave card(s) in a Crossfire configuration can use even less power. The value given to us for an idling slave card is 20W, which is a product of the fact that the slave cards go completely unused when the system is idling. In this state slave cards are still capable of instantaneously ramping up for full-load use, although conceivably AMD could go even lower still by powering down the slave cards entirely at a cost of this ability.

...

That problem reared its head a lot for the RV770 in particular, with the rise in popularity of stress testing programs like FurMark and OCCT. Although stress testers on the CPU side are nothing new, FurMark and OCCT heralded a new generation of GPU stress testers that were extremely effective in generating a maximum load. Unfortunately for RV770, the maximum possible load and the TDP are pretty far apart, which becomes a problem since the VRMs used in a card only need to be spec’d to meet the TDP of a card plus some safety room. They don’t need to be able to meet whatever the true maximum load of a card can be, as it should never happen.

Why is this? AMD believes that the instruction streams generated by OCCT and FurMark are entirely unrealistic. They try to hit everything at once, and this is something that they don’t believe a game or even a GPGPU application would ever do. For this reason these programs are held in low regard by AMD, and in our discussions with them they referred to them as “power viruses”, a term that’s normally associated with malware. We don’t agree with the terminology, but in our testing we can’t disagree with AMD about the realism of their load – we can’t find anything that generates the same kind of loads as OCCT and FurMark.

Regardless of what AMD wants to call these stress testers, there was a real problem when they were run on RV770. The overcurrent situation they created was too much for the VRMs on many cards, and as a failsafe these cards would shut down to protect the VRMs. At a user level shutting down like this isn’t a very helpful failsafe mode. At a hardware level shutting down like this isn’t enough to protect the VRMs in all situations. Ultimately these programs were capable of permanently damaging RV770 cards, and AMD needed to do something about it. For RV770 they could use the drivers to throttle these programs; until Catalyst 9.8 they detected the program by name, and since 9.8 they detect the ratio of texture to ALU instructions (Ed: We’re told NVIDIA throttles similarly, but we don’t have a good control for testing this statement). This keeps RV770 safe, but it wasn’t good enough. It’s a hardware problem, the solution needs to be in hardware, particularly if anyone really did write a power virus in the future that the drivers couldn’t stop, in an attempt to break cards on a wide scale.

This brings us to Cypress. For Cypress, AMD has implemented a hardware solution to the VRM problem, by dedicating a very small portion of Cypress’s die to monitoring chip. In this case the job of the monitor is to continually monitor the VRMs for dangerous conditions. Should the VRMs end up in a critical state, the monitor will immediately throttle back the card by one PowerPlay level. The card will continue operating at this level until the VRMs are back to safe levels, at which point the monitor will allow the card to go back to the requested performance level. In the case of a stressful program, this can continue to go back and forth as the VRMs permit.

By implementing this at the hardware level, Cypress cards are fully protected against all possible overcurrent situations, so that it’s not possible for any program (OCCT, FurMark, or otherwise) to damage the hardware by generating too high of a load. This also means that the protections at the driver level are not needed, and we’ve confirmed with AMD that the 5870 is allowed to run to the point where it maxes out or where overcurrent protection kicks in.

...

Finally, while we’re discussing the monitoring chip, we may as well talk about the rest of its features. Along with monitoring the GPU, it also is a PWM controller. This means that the PWM controller is no longer a separate part that card builders add themselves, and as such we won’t be seeing any cards using a 2pin fixed speed fan to save money on the PWM controller. All Cypress cards (and presumably, all derivatives) will have the ability to use a 4pin fan built-in.
Quelle
 
Zuletzt bearbeitet:
27 W leise wegzukühlen sollte aber auch nicht das Problem sein
Wennst meinen Text gelesen hättest, hättest du auch die 27Watt gesehen;-)

Es geht nicht nur um die 27Watt, sondern das Lüftungsystem soll laut HardTecs4U auch die Spannungswandler mit einem extra Luftzug (oder so) mitkühlen, wodurch das Übertakten verbessert wurde.

Soviel ich weiß, ist der Lüftauslass halbiert worden, wodurch es schon Spekulationen gabt, dass der HD 5870 noch lauter wird.
Nachdem was ich bisher über den HD 5870 las, bin ich dadurch noch mehr überrascht und finde die Karte insgesamt für recht gelungen.
----------
Achja,
der HD4870 hatte laut HardTect4U 1,30 Volt.
der HD5870 hatte 1,15 Volt. Soviel wie der GTX285.

Ich bin echt gespannt, was GT300 wird. Ob dieser wieder 0,15volt unter den HD5870 liegen kann und damit eine recht gute Energie-Effizient aufweisen kann.
 
Zuletzt bearbeitet:
Es geht nicht nur um die 27Watt, sondern das Lüftungsystem soll laut HardTecs4U auch die Spannungswandler mit einem extra Luftzug (oder so) mitkühlen, wodurch das Übertakten verbessert wurde.

Ich frage mich gerade ob AMD wieder genauso einen Mist fabriziert hat, wie bei den SpaWas der ersten 4870 Revision (bzw. m.E. alle Karten mit "roter Platte"). Die Bilder vom PCP lassen mich im Zweifel.
Die SpaWas sind der Hauptgrund wieso ich in Erwägung ziehe, auf eine 5850 zu wechseln.
 
...wobei der 1-Slot-Kühler der 4850 noch erbärmlicher war^^

Ein Accelero S1 plus aufgeschnallter 120mm-Lüfter dürfte trotzdem leiser sein und dabei mehr als ausreichend kühlen, und zwar alle Bauteile. Frißt natürlich mehr Slots.
 
Das war ja grad das Thema bei der 4870.

Ich hab nen Musashi drauf und fragt nicht nach Sonnenschein. Die SpaWas werden Ingame gern mal 100 °C heiß (Lüfter @1000 U/min). der GDDR5 Ram klettert auch mal auf 90 °C. Im Luxx gabs seinerzeit nen Thread von jemandem der die 4870 mit ner Wärmebildkamera untersucht hat. Bei dem wurden je nach Konfiguration (Stock-Kühler/Accelero S1 @ 120er/ S1 und rote Platte) die SpaWas m.E. bis zu 113 °C heiß.

Gut die Dinger sind bis 125 °C spezifiziert, aber dass muss ja nicht sein. :] Heizt nur das System unnötig auf.

P.S.: Wenn ich immer lese, dass die Leute die Chip-Temps ihrer Karten angeben und meinen alles ist in Butter, wird mir ganz anders. Die Chip-Temp sagt bei der 4870 z.B. mal überhaupt nix aus (da hab ich grad 46 °C Idle). Ram-Temp und SpaWa-Temp sind das wichtige. Wieso zum Geier haben die Karten denn 4 Temp Dioden? Um sich nur eine anzuschauen?
 
Zuletzt bearbeitet:
Aber Was ist BLOB und DRI ?

BLOB - Binary Large OBject

In Bereich OSS ist das die nicht unbedingt liebevolle Bezeichnung für Closed Source Komponenten. Gerade im Treiberbereich sind die nicht wirklich gerne gesehen. Die machen das Debugging unmöglich.

DRI - Direct Rendering Infrastructure

Das ist unter Linux (und unter BDS) das Interface, welches 3D-Beschleunigung überhaupt erst möglich macht. (und mit den Chips seit der r600-Generation auch die 2D-Beschleunigung)
 
Bei techPowerUp! finden sich auch GPU-Z Screenshots der Radeon HD 5870:



Sie scheint ein ausgeklügeltes Hardware Monitoring zu haben.
 
Es wird sicherlich unklug sein, sich instantan in den kommenden Tagen einer dieser Karten käuflich zu bemächtigen. Das Jahr neigt sich dem Ende zu, was heute noch funktioniert und arbeitet, tut dies auch in den kommenden 90 Tagen auch. Warum also jetzt sauer verdientes Geld für etwas ausgeben, was in 90 Tagen, nach Einführung der nVidia'schen GT300, zu einem wesentlich günstigeren Preis angeboten werden wird? Die Technik bleibt die gleiche, Karten diverser Hersteller werden gar qualitativ besser sein, weil neue Revisionen Erfahrungen mit dem Referenzdesign einbringen könn(t)en und soweiter und so fort.
 
Es wird sicherlich unklug sein, sich instantan in den kommenden Tagen einer dieser Karten käuflich zu bemächtigen.
Die ATi Radeon HD 5850 ist jetzt schon für nur 200 Euro gelistet. Bei breiter Verfügbarkeit (planmäßig in ein bis zwei Wochen) können das schnell 180 Euro werden.
Zum Vergleich kostet eine nVidia GeForce GTX 275 zur Zeit 170 Euro. Demnach dürfte der Preis auch mit der Erscheinen der NextGen Karten von nVidia nicht deutlich fallen.

Wenn man wartet dann eher auf die Mainstream Modelle, wie die Radeon HD 5770. Aber bei den HighEnd Modelle sehe ich nicht sonderlich viel Spielraum nach unten.
Warten kann sich dennoch lohnen wegen fehlerbereinigter Revisions und vom Referenzdesign abweichender Layouts mit leiseren Kühlern oder mehr VRAM.
 
Zuletzt bearbeitet:
Warum also jetzt sauer verdientes Geld für etwas ausgeben, was in 90 Tagen, nach Einführung der nVidia'schen GT300, zu einem wesentlich günstigeren Preis angeboten werden wird?
Das dachte man auch beim R600. Es wurden dann noch ein paar Monate mehr.

Ein fast 50% größerer Die vielleicht in 512-Bit-SI wird wohl schwer einen Preiskampf beginnen.
 
Es wird sicherlich unklug sein, sich instantan in den kommenden Tagen einer dieser Karten käuflich zu bemächtigen. Das Jahr neigt sich dem Ende zu, was heute noch funktioniert und arbeitet, tut dies auch in den kommenden 90 Tagen auch. Warum also jetzt sauer verdientes Geld für etwas ausgeben, was in 90 Tagen, nach Einführung der nVidia'schen GT300, zu einem wesentlich günstigeren Preis angeboten werden wird? Die Technik bleibt die gleiche, Karten diverser Hersteller werden gar qualitativ besser sein, weil neue Revisionen Erfahrungen mit dem Referenzdesign einbringen könn(t)en und soweiter und so fort.


ich finde die vermutung immer interessant, nach dem GT300 würden die preise stark sinken.

fakt ist, dass der GT300 viel größer und teuerer in der produktion wird und nvidia nicht unbedingt einen preiskrieg eingehen wird wollen. die schreiben seit mehreren quartalen auch nur verluste.

die werden sich preislich so hinstellen, wie es zur leistung passt. wie die auch immer aussehen mag.
gibt ja auch vermutungen, dass die karte eventuell gar nicht so gut wird, immerhin viel neuland für nvidia. vielleicht wird sie ein flop? r600 lässt grüßen.

davon abgesehen gehen auch viele vermutungen dahin, dass es noch ein halbes jahr dauert, bis nvidia überhaupt den GT300 marktreif hat.
 
Zurück
Oben Unten