App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
News AMD stellt ATI Radeon HD 5800er Serie vor
- Ersteller pipin
- Erstellt am
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.392
- Renomée
- 9.739
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Mit dem ATI Radeon HD 5870 und ATI Radeon HD 5850 stellt AMD die beiden ersten Grafikchips der HD 5800er Serie vor, die unter dem Codenamen "Cypress" entwickelt wurden. Diese bieten neben einer Unterstützung von DirectX 11 auch neue Features wie zum Beispiel <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1252649209">ATI Eyefinity</a> und einen verbesserten Stromverbrauch im Idle-Betrieb.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=7531"><img src="http://www.planet3dnow.de/photoplog/file.php?n=7531" border="1" alt="AMD ATI Radeon HD 5800"></a></center>
Karten mit den beiden Chips sind für den sogenannten Performancebereich vorgesehen und sollen laut AMD im Falle der ATI Radeon HD 5870 für 339 bis 349 Euro und im Falle der ATI Radeon HD 5850 für 229 bis 239 Euro erhältlich sein.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=7536"><img src="http://www.planet3dnow.de/photoplog/file.php?n=7536" border="1" alt="AMD ATI Radeon HD 5800"></a></center>
Im Laufe dieses Jahres sollen dann noch die Dual-GPU "Hemlock" für den Enthusiasten und mit dem "Juniper" ein Chip für den Bereich unter 200 US-Dollar Verkaufspreis folgen.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=7532"><img src="http://www.planet3dnow.de/photoplog/file.php?n=7532" border="1" alt="AMD ATI Radeon HD 5800"></a></center>
Die reinen Leistungsdaten bestätigen die in den letzten Wochen gehandelten Spezifikationen und zusätzlich verweist AMD auf die Verbesserungen bei der ATI PowerPlay Technik, die nun eine Leistungsaufnahme von 27 Watt im Idle-Betrieb erlauben.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=7535"><img src="http://www.planet3dnow.de/photoplog/file.php?n=7535" border="1" alt="AMD ATI Radeon HD 5800"></a></center>
Von AMD bereitgestellte Benchmarks (Auflösung 2560x1600) zeigen die beiden Karten mit teils deutlichem Vorsprung vor entsprechenden Produkten von Konkurrent NVIDIA.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=7537"><img src="http://www.planet3dnow.de/photoplog/file.php?n=7537" border="1" alt="AMD ATI Radeon HD 5800 Benchmarks"></a></center>
Auf erste unabhängige Benchmarks darf man gespannt sein.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=7531"><img src="http://www.planet3dnow.de/photoplog/file.php?n=7531" border="1" alt="AMD ATI Radeon HD 5800"></a></center>
Karten mit den beiden Chips sind für den sogenannten Performancebereich vorgesehen und sollen laut AMD im Falle der ATI Radeon HD 5870 für 339 bis 349 Euro und im Falle der ATI Radeon HD 5850 für 229 bis 239 Euro erhältlich sein.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=7536"><img src="http://www.planet3dnow.de/photoplog/file.php?n=7536" border="1" alt="AMD ATI Radeon HD 5800"></a></center>
Im Laufe dieses Jahres sollen dann noch die Dual-GPU "Hemlock" für den Enthusiasten und mit dem "Juniper" ein Chip für den Bereich unter 200 US-Dollar Verkaufspreis folgen.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=7532"><img src="http://www.planet3dnow.de/photoplog/file.php?n=7532" border="1" alt="AMD ATI Radeon HD 5800"></a></center>
Die reinen Leistungsdaten bestätigen die in den letzten Wochen gehandelten Spezifikationen und zusätzlich verweist AMD auf die Verbesserungen bei der ATI PowerPlay Technik, die nun eine Leistungsaufnahme von 27 Watt im Idle-Betrieb erlauben.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=7535"><img src="http://www.planet3dnow.de/photoplog/file.php?n=7535" border="1" alt="AMD ATI Radeon HD 5800"></a></center>
Von AMD bereitgestellte Benchmarks (Auflösung 2560x1600) zeigen die beiden Karten mit teils deutlichem Vorsprung vor entsprechenden Produkten von Konkurrent NVIDIA.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=7537"><img src="http://www.planet3dnow.de/photoplog/file.php?n=7537" border="1" alt="AMD ATI Radeon HD 5800 Benchmarks"></a></center>
Auf erste unabhängige Benchmarks darf man gespannt sein.
Drohne
Vice Admiral Special
- Mitglied seit
- 27.09.2007
- Beiträge
- 863
- Renomée
- 20
... Von AMD bereitgestellte Benchmarks (Auflösung 2560x1600) zeigen die beiden Karten mit teils deutlichem Vorsprung vor entsprechenden Produkten von Konkurrent NVIDIA.
a) Vorabtests sind stets mit Vorsicht zu genießen
b) AMD führt seine neue Chipsatzgeneration etwas früher als nVidia ein, warten wir doch erst mal ab, was AMDs RV870 gegen einen GT300 zu bieten hat, wenn beide Typen wirklich frei verfügbar sind.
Sofern man seine Graphikkarte nicht nur zum Spielen einsetzt, gibt es keinen triftigen Grund eine AMD/ATi-Karte zu erwerben. Die OpenSource-Unterstützung ist nach wie vor bei modernen Karten sowohl bei AMD als auch bei nVidia schlecht (setzt man UNIX und nicht Linux ein oder vermeidet prinzipiell BLOBs, ist es gehopst wie gesprungen). Derzeit ist die Unterstützung im wiss. Sektor durch CUDA ein deutlicher Pluspunkt und suggestiv erscheint mir im Hause die Beschleunigung der Adobe CS4, die GPGPU unterstützen soll, auf allen nVidia Karten, beginnend mit der 8800GTX, wesentlich deutlicher als auf den eingesetzten AMD Karten (beginnend mit 4670, 4850 bis hin zur 4870). Auf den Nicht-Linux-Systemen, die mit einem Berkeley-UNIX betrieben werden und unter 64 Bit im wiss. Betrieb laufen, ist aufgrund der nicht verfügbaren 64Bit BLOBs der Einsatz der 4670 Karten nicht möglich, sofern man DRI benutzen möchte.
Auch wenn die theoretische Leistung der AMD Chips im GPGPU-Betrieb höher sein sollte, so bin ich ob dessen, was realisiert wird, enttäuscht. Also, warum eine 5850 oder 5870 kaufen?
Dr@
Grand Admiral Special
- Mitglied seit
- 19.05.2009
- Beiträge
- 12.791
- Renomée
- 4.066
- Standort
- Baden-Württemberg
- Aktuelle Projekte
- Collatz Conjecture
- Meine Systeme
- Zacate E-350 APU
- BOINC-Statistiken
- Mein Laptop
- FSC Lifebook S2110, HP Pavilion dm3-1010eg
- Prozessor
- Turion 64 MT37, Neo X2 L335, E-350
- Mainboard
- E35M1-I DELUXE
- Speicher
- 2x1 GiB DDR-333, 2x2 GiB DDR2-800, 2x2 GiB DDR3-1333
- Grafikprozessor
- RADEON XPRESS 200m, HD 3200, HD 4330, HD 6310
- Display
- 13,3", 13,3" , Dell UltraSharp U2311H
- HDD
- 100 GB, 320 GB, 120 GB +500 GB
- Optisches Laufwerk
- DVD-Brenner
- Betriebssystem
- WinXP SP3, Vista SP2, Win7 SP1 64-bit
- Webbrowser
- Firefox 13
a) Vorabtests sind stets mit Vorsicht zu genießen
b) AMD führt seine neue Chipsatzgeneration etwas früher als nVidia ein, warten wir doch erst mal ab, was AMDs RV870 gegen einen GT300 zu bieten hat, wenn beide Typen wirklich frei verfügbar sind.
Sofern man seine Graphikkarte nicht nur zum Spielen einsetzt, gibt es keinen triftigen Grund eine AMD/ATi-Karte zu erwerben. Die OpenSource-Unterstützung ist nach wie vor bei modernen Karten sowohl bei AMD als auch bei nVidia schlecht (setzt man UNIX und nicht Linux ein oder vermeidet prinzipiell BLOBs, ist es gehopst wie gesprungen). Derzeit ist die Unterstützung im wiss. Sektor durch CUDA ein deutlicher Pluspunkt und suggestiv erscheint mir im Hause die Beschleunigung der Adobe CS4, die GPGPU unterstützen soll, auf allen nVidia Karten, beginnend mit der 8800GTX, wesentlich deutlicher als auf den eingesetzten AMD Karten (beginnend mit 4670, 4850 bis hin zur 4870). Auf den Nicht-Linux-Systemen, die mit einem Berkeley-UNIX betrieben werden und unter 64 Bit im wiss. Betrieb laufen, ist aufgrund der nicht verfügbaren 64Bit BLOBs der Einsatz der 4670 Karten nicht möglich, sofern man DRI benutzen möchte.
Auch wenn die theoretische Leistung der AMD Chips im GPGPU-Betrieb höher sein sollte, so bin ich ob dessen, was realisiert wird, enttäuscht. Also, warum eine 5850 oder 5870 kaufen?
Das ist keine Profikarte und Zocker sind die Hauptzielgruppe.
Ich kann deine Frage nicht nachvollziehen.
MfG @
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Erst mal Glückwunsch zum Start der ersten DirectX-11 Karte.a) Vorabtests sind stets mit Vorsicht zu genießen
b) AMD führt seine neue Chipsatzgeneration etwas früher als nVidia ein, warten wir doch erst mal ab, was AMDs RV870 gegen einen GT300 zu bieten hat, wenn beide Typen wirklich frei verfügbar sind. ...
Bei einer TDP max 190 Watt ist ein Idle-Wert von unter 30 Watt eine Marke. Bin mal auf die Mittelklasse mit den RV840 und RV830 gespannt.
Aber Was ist BLOB und DRI ?
MFG Bobo(2009)
Kali
Vice Admiral Special
c't schreibt was von 19 Watt im idel
http://www.heise.de/newsticker/Rade...ectX-11-Grafikkarten-sind-da--/meldung/145716
http://www.heise.de/newsticker/Rade...ectX-11-Grafikkarten-sind-da--/meldung/145716
LehmannSaW
Vice Admiral Special
- Mitglied seit
- 21.09.2007
- Beiträge
- 597
- Renomée
- 36
- Standort
- poloidal cell 5 im 3. grid block
- Mein Laptop
- HP ENVY x360 15 Dark Ash Silver mit Ryzen 5 2500U
- Prozessor
- AMD Ryzen 7 1800X
- Mainboard
- ASRock X370 Taichi
- Kühlung
- NZXT Kraken X61
- Speicher
- 16GB G.Skill Trident Z DDR4-3200 @ 3200Mhz
- Grafikprozessor
- Sapphire Radeon R9 Nano
- Display
- Acer Predator XR341CK 34-Zoll mit FreeSync
- SSD
- 250GB Samsung SSD 960 EVO M.2 + 256GB Samsung SSD 840 Pro SSD + 525GB Crucial MX300
- HDD
- 4TB Seagate Desktop SSHD
- Optisches Laufwerk
- keines
- Soundkarte
- on-Board
- Gehäuse
- NZXT S340 ELITE weiß
- Netzteil
- be quiet Straight Power 10 CM 800W
- Betriebssystem
- Windows 10 Pro 64
- Webbrowser
- Mozilla Firefox / IE
Black_Kane
Commander
- Mitglied seit
- 02.09.2007
- Beiträge
- 164
- Renomée
- 0
- Standort
- Bad Breisig
- Prozessor
- C2D E8400
- Mainboard
- Gigabyte P35-DS3P
- Kühlung
- Arctic Cooling Freezer 7 Pro
- Speicher
- 4GB OCZ Reaper HPC Edition 1066MHz
- Grafikprozessor
- Asus 8800GTS 512MB @ 740/1835/990
- Display
- Asus VW198S
- HDD
- Seagate Barracuda 160GB
- Gehäuse
- NZXT Tempest
- Netzteil
- Corsair TX 650W
- Betriebssystem
- Windows 7 RC
- Webbrowser
- IE 8
Hier die 1. Benchmarks von PCGH.
http://www.pcgameshardware.de/aid,6...afikkarte-im-Benchmark-Test/Grafikkarte/Test/
Der Stromverbrauch ist für die Leistung ja mal göttlich. Daumen hoch ATI habt ihr sauber hinbekommen
Jetzt bin ich ja mal gespannt ob Nvidia dieses Jahr noch nachzieht oder wirklich erst kommendes Jahr.
http://www.pcgameshardware.de/aid,6...afikkarte-im-Benchmark-Test/Grafikkarte/Test/
Der Stromverbrauch ist für die Leistung ja mal göttlich. Daumen hoch ATI habt ihr sauber hinbekommen
Jetzt bin ich ja mal gespannt ob Nvidia dieses Jahr noch nachzieht oder wirklich erst kommendes Jahr.
PlanB-Satanclaus
Commodore Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 385
- Renomée
- 1
Fehlen zu meinem Glück nurnoch Karten mit Besseren Kühlern! 55 Dezibel laut CB ist mir zu Laut.
Fusseltuch
Vice Admiral Special
- Mitglied seit
- 29.12.2004
- Beiträge
- 848
- Renomée
- 8
- Prozessor
- Intel C2Q6600 @ 3.2GHz
- Mainboard
- MSI P35 Neo2-FR
- Kühlung
- Alpenföhn Gross Clockner
- Speicher
- 8GB DDR2-800
- Grafikprozessor
- HD6850
- Display
- 24" Eizo SX2461W 1920x1200 / 21.3" Eizo S2100 1600x1200
- HDD
- 160GB X-25M G2 2x 640GB WD6400AAKS 1x 500GB WD5000AACS
- Optisches Laufwerk
- LiteOn iHas120
- Soundkarte
- Onboard
- Gehäuse
- Antec P180
- Netzteil
- Enermax Modu82+ 425W
- Betriebssystem
- Win7 64bit
- Webbrowser
- Opera 11
Bei ht4u wurden "nur" rund 40db gemessen. Krasser unterschied. Aber die Sone werte sind eh besser zu vermitteln und mit bis zu 5 sone ist das schon sehr laut.
Die HD5870-Karte finde ich gesamtheitlich recht gut.
In Idle hat sie nicht nur 27Watt oder etwas weniger, sondern soll fast unhörbar sein.
Das ganze Lüftungssystem dürfte für einen Referenz-Kühler ziemlich gut sein.
In Idle hat sie nicht nur 27Watt oder etwas weniger, sondern soll fast unhörbar sein.
Das ganze Lüftungssystem dürfte für einen Referenz-Kühler ziemlich gut sein.
Dr@
Grand Admiral Special
- Mitglied seit
- 19.05.2009
- Beiträge
- 12.791
- Renomée
- 4.066
- Standort
- Baden-Württemberg
- Aktuelle Projekte
- Collatz Conjecture
- Meine Systeme
- Zacate E-350 APU
- BOINC-Statistiken
- Mein Laptop
- FSC Lifebook S2110, HP Pavilion dm3-1010eg
- Prozessor
- Turion 64 MT37, Neo X2 L335, E-350
- Mainboard
- E35M1-I DELUXE
- Speicher
- 2x1 GiB DDR-333, 2x2 GiB DDR2-800, 2x2 GiB DDR3-1333
- Grafikprozessor
- RADEON XPRESS 200m, HD 3200, HD 4330, HD 6310
- Display
- 13,3", 13,3" , Dell UltraSharp U2311H
- HDD
- 100 GB, 320 GB, 120 GB +500 GB
- Optisches Laufwerk
- DVD-Brenner
- Betriebssystem
- WinXP SP3, Vista SP2, Win7 SP1 64-bit
- Webbrowser
- Firefox 13
Die HD5870-Karte finde ich gesamtheitlich recht gut.
In Idle hat sie nicht nur 27Watt oder etwas weniger, sondern soll fast unhörbar sein.
Das ganze Lüftungssystem dürfte für einen Referenz-Kühler ziemlich gut sein.
27 W leise wegzukühlen sollte aber auch nicht das Problem sein
QuelleTheir goal was to get idle power down to 30W, 1/3rd that of RV770. What they got was even better: they came in past that target by 10%, hitting a final idle power of 27W. As a result the Cypress can idle at 30% of the power as RV770, or as compared to Cypress’s load power of 188W, some 14% of its load power.
...
With Cypress AMD has implemented nearly the entire suite of GDDR5’s power saving features, allowing them to reduce the power usage of the memory controller and the GDDR5 modules themselves. As with the improvements to the core clock, key among the improvement in memory power usage is the ability to go to much lower memory clock speeds, using fast GDDR5 link re-training to quickly switch the memory clock speed and voltage without inducing glitches. AMD is also now using GDDR5’s low power strobe mode, which in turn allows the memory controller to save power by turning off the clock data recovery mechanism. When discussing the matter with AMD, they compared these changes to putting the memory modules and memory controller in to a GDDR3-like mode, which is a fair description of how GDDR5 behaves when its high-speed features are not enabled.
Finally, AMD was able to find yet more power savings for Crossfire configurations, and as a result the slave card(s) in a Crossfire configuration can use even less power. The value given to us for an idling slave card is 20W, which is a product of the fact that the slave cards go completely unused when the system is idling. In this state slave cards are still capable of instantaneously ramping up for full-load use, although conceivably AMD could go even lower still by powering down the slave cards entirely at a cost of this ability.
...
That problem reared its head a lot for the RV770 in particular, with the rise in popularity of stress testing programs like FurMark and OCCT. Although stress testers on the CPU side are nothing new, FurMark and OCCT heralded a new generation of GPU stress testers that were extremely effective in generating a maximum load. Unfortunately for RV770, the maximum possible load and the TDP are pretty far apart, which becomes a problem since the VRMs used in a card only need to be spec’d to meet the TDP of a card plus some safety room. They don’t need to be able to meet whatever the true maximum load of a card can be, as it should never happen.
Why is this? AMD believes that the instruction streams generated by OCCT and FurMark are entirely unrealistic. They try to hit everything at once, and this is something that they don’t believe a game or even a GPGPU application would ever do. For this reason these programs are held in low regard by AMD, and in our discussions with them they referred to them as “power viruses”, a term that’s normally associated with malware. We don’t agree with the terminology, but in our testing we can’t disagree with AMD about the realism of their load – we can’t find anything that generates the same kind of loads as OCCT and FurMark.
Regardless of what AMD wants to call these stress testers, there was a real problem when they were run on RV770. The overcurrent situation they created was too much for the VRMs on many cards, and as a failsafe these cards would shut down to protect the VRMs. At a user level shutting down like this isn’t a very helpful failsafe mode. At a hardware level shutting down like this isn’t enough to protect the VRMs in all situations. Ultimately these programs were capable of permanently damaging RV770 cards, and AMD needed to do something about it. For RV770 they could use the drivers to throttle these programs; until Catalyst 9.8 they detected the program by name, and since 9.8 they detect the ratio of texture to ALU instructions (Ed: We’re told NVIDIA throttles similarly, but we don’t have a good control for testing this statement). This keeps RV770 safe, but it wasn’t good enough. It’s a hardware problem, the solution needs to be in hardware, particularly if anyone really did write a power virus in the future that the drivers couldn’t stop, in an attempt to break cards on a wide scale.
This brings us to Cypress. For Cypress, AMD has implemented a hardware solution to the VRM problem, by dedicating a very small portion of Cypress’s die to monitoring chip. In this case the job of the monitor is to continually monitor the VRMs for dangerous conditions. Should the VRMs end up in a critical state, the monitor will immediately throttle back the card by one PowerPlay level. The card will continue operating at this level until the VRMs are back to safe levels, at which point the monitor will allow the card to go back to the requested performance level. In the case of a stressful program, this can continue to go back and forth as the VRMs permit.
By implementing this at the hardware level, Cypress cards are fully protected against all possible overcurrent situations, so that it’s not possible for any program (OCCT, FurMark, or otherwise) to damage the hardware by generating too high of a load. This also means that the protections at the driver level are not needed, and we’ve confirmed with AMD that the 5870 is allowed to run to the point where it maxes out or where overcurrent protection kicks in.
...
Finally, while we’re discussing the monitoring chip, we may as well talk about the rest of its features. Along with monitoring the GPU, it also is a PWM controller. This means that the PWM controller is no longer a separate part that card builders add themselves, and as such we won’t be seeing any cards using a 2pin fixed speed fan to save money on the PWM controller. All Cypress cards (and presumably, all derivatives) will have the ability to use a 4pin fan built-in.
Zuletzt bearbeitet:
Wennst meinen Text gelesen hättest, hättest du auch die 27Watt gesehen27 W leise wegzukühlen sollte aber auch nicht das Problem sein
Es geht nicht nur um die 27Watt, sondern das Lüftungsystem soll laut HardTecs4U auch die Spannungswandler mit einem extra Luftzug (oder so) mitkühlen, wodurch das Übertakten verbessert wurde.
Soviel ich weiß, ist der Lüftauslass halbiert worden, wodurch es schon Spekulationen gabt, dass der HD 5870 noch lauter wird.
Nachdem was ich bisher über den HD 5870 las, bin ich dadurch noch mehr überrascht und finde die Karte insgesamt für recht gelungen.
----------
Achja,
der HD4870 hatte laut HardTect4U 1,30 Volt.
der HD5870 hatte 1,15 Volt. Soviel wie der GTX285.
Ich bin echt gespannt, was GT300 wird. Ob dieser wieder 0,15volt unter den HD5870 liegen kann und damit eine recht gute Energie-Effizient aufweisen kann.
Zuletzt bearbeitet:
kuppi
Grand Admiral Special
- Mitglied seit
- 19.12.2005
- Beiträge
- 6.560
- Renomée
- 139
- Standort
- Montpellier
- Mein Laptop
- Thinkpad L380
- Prozessor
- Ryzen 3600
- Mainboard
- Asrock B450
- Kühlung
- Scythe Big Shuriken @ Noiseblocker XL1
- Speicher
- 64GB
- Grafikprozessor
- MSI 270X Gaming
- Display
- 2x Dell 2715H
- SSD
- 2x intel s660 2TB
- Optisches Laufwerk
- LG BH16NS40 Blu-Ray Brenner
- Gehäuse
- Silverstone GD09B
- Netzteil
- bequiet PURE POWER 11 400W
- Betriebssystem
- Win 10 Professional
- Webbrowser
- Firefox
Es geht nicht nur um die 27Watt, sondern das Lüftungsystem soll laut HardTecs4U auch die Spannungswandler mit einem extra Luftzug (oder so) mitkühlen, wodurch das Übertakten verbessert wurde.
Ich frage mich gerade ob AMD wieder genauso einen Mist fabriziert hat, wie bei den SpaWas der ersten 4870 Revision (bzw. m.E. alle Karten mit "roter Platte"). Die Bilder vom PCP lassen mich im Zweifel.
Die SpaWas sind der Hauptgrund wieso ich in Erwägung ziehe, auf eine 5850 zu wechseln.
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
der kühler ist jedenfalls so gut, dass man dieses mal wohl bedenkenlos das referenzdesign kaufen kann.
http://www.computerbase.de/artikel/...t_ati_radeon_hd_5870/25/#abschnitt_temperatur
eiskalte 34°C idle sind ne kühle ansage. wenn ich da an die 70° idle der 4870 reihe denke...
http://www.computerbase.de/artikel/...t_ati_radeon_hd_5870/25/#abschnitt_temperatur
eiskalte 34°C idle sind ne kühle ansage. wenn ich da an die 70° idle der 4870 reihe denke...
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.031
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
...wobei der 1-Slot-Kühler der 4850 noch erbärmlicher war^^
Ein Accelero S1 plus aufgeschnallter 120mm-Lüfter dürfte trotzdem leiser sein und dabei mehr als ausreichend kühlen, und zwar alle Bauteile. Frißt natürlich mehr Slots.
Ein Accelero S1 plus aufgeschnallter 120mm-Lüfter dürfte trotzdem leiser sein und dabei mehr als ausreichend kühlen, und zwar alle Bauteile. Frißt natürlich mehr Slots.
kuppi
Grand Admiral Special
- Mitglied seit
- 19.12.2005
- Beiträge
- 6.560
- Renomée
- 139
- Standort
- Montpellier
- Mein Laptop
- Thinkpad L380
- Prozessor
- Ryzen 3600
- Mainboard
- Asrock B450
- Kühlung
- Scythe Big Shuriken @ Noiseblocker XL1
- Speicher
- 64GB
- Grafikprozessor
- MSI 270X Gaming
- Display
- 2x Dell 2715H
- SSD
- 2x intel s660 2TB
- Optisches Laufwerk
- LG BH16NS40 Blu-Ray Brenner
- Gehäuse
- Silverstone GD09B
- Netzteil
- bequiet PURE POWER 11 400W
- Betriebssystem
- Win 10 Professional
- Webbrowser
- Firefox
Das war ja grad das Thema bei der 4870.
Ich hab nen Musashi drauf und fragt nicht nach Sonnenschein. Die SpaWas werden Ingame gern mal 100 °C heiß (Lüfter @1000 U/min). der GDDR5 Ram klettert auch mal auf 90 °C. Im Luxx gabs seinerzeit nen Thread von jemandem der die 4870 mit ner Wärmebildkamera untersucht hat. Bei dem wurden je nach Konfiguration (Stock-Kühler/Accelero S1 @ 120er/ S1 und rote Platte) die SpaWas m.E. bis zu 113 °C heiß.
Gut die Dinger sind bis 125 °C spezifiziert, aber dass muss ja nicht sein. Heizt nur das System unnötig auf.
P.S.: Wenn ich immer lese, dass die Leute die Chip-Temps ihrer Karten angeben und meinen alles ist in Butter, wird mir ganz anders. Die Chip-Temp sagt bei der 4870 z.B. mal überhaupt nix aus (da hab ich grad 46 °C Idle). Ram-Temp und SpaWa-Temp sind das wichtige. Wieso zum Geier haben die Karten denn 4 Temp Dioden? Um sich nur eine anzuschauen?
Ich hab nen Musashi drauf und fragt nicht nach Sonnenschein. Die SpaWas werden Ingame gern mal 100 °C heiß (Lüfter @1000 U/min). der GDDR5 Ram klettert auch mal auf 90 °C. Im Luxx gabs seinerzeit nen Thread von jemandem der die 4870 mit ner Wärmebildkamera untersucht hat. Bei dem wurden je nach Konfiguration (Stock-Kühler/Accelero S1 @ 120er/ S1 und rote Platte) die SpaWas m.E. bis zu 113 °C heiß.
Gut die Dinger sind bis 125 °C spezifiziert, aber dass muss ja nicht sein. Heizt nur das System unnötig auf.
P.S.: Wenn ich immer lese, dass die Leute die Chip-Temps ihrer Karten angeben und meinen alles ist in Butter, wird mir ganz anders. Die Chip-Temp sagt bei der 4870 z.B. mal überhaupt nix aus (da hab ich grad 46 °C Idle). Ram-Temp und SpaWa-Temp sind das wichtige. Wieso zum Geier haben die Karten denn 4 Temp Dioden? Um sich nur eine anzuschauen?
Zuletzt bearbeitet:
PuckPoltergeist
Grand Admiral Special
Aber Was ist BLOB und DRI ?
BLOB - Binary Large OBject
In Bereich OSS ist das die nicht unbedingt liebevolle Bezeichnung für Closed Source Komponenten. Gerade im Treiberbereich sind die nicht wirklich gerne gesehen. Die machen das Debugging unmöglich.
DRI - Direct Rendering Infrastructure
Das ist unter Linux (und unter BDS) das Interface, welches 3D-Beschleunigung überhaupt erst möglich macht. (und mit den Chips seit der r600-Generation auch die 2D-Beschleunigung)
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.124
- Renomée
- 986
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X (100-100000071)
- Mainboard
- ASUS ProArt B550-Creator
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB (11324-01-20G)
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64) Xfce
- Verschiedenes
- ASUS TPM-SPI (Nuvoton NPCT750A)
Bei techPowerUp! finden sich auch GPU-Z Screenshots der Radeon HD 5870:
Sie scheint ein ausgeklügeltes Hardware Monitoring zu haben.
Sie scheint ein ausgeklügeltes Hardware Monitoring zu haben.
Drohne
Vice Admiral Special
- Mitglied seit
- 27.09.2007
- Beiträge
- 863
- Renomée
- 20
Es wird sicherlich unklug sein, sich instantan in den kommenden Tagen einer dieser Karten käuflich zu bemächtigen. Das Jahr neigt sich dem Ende zu, was heute noch funktioniert und arbeitet, tut dies auch in den kommenden 90 Tagen auch. Warum also jetzt sauer verdientes Geld für etwas ausgeben, was in 90 Tagen, nach Einführung der nVidia'schen GT300, zu einem wesentlich günstigeren Preis angeboten werden wird? Die Technik bleibt die gleiche, Karten diverser Hersteller werden gar qualitativ besser sein, weil neue Revisionen Erfahrungen mit dem Referenzdesign einbringen könn(t)en und soweiter und so fort.
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.124
- Renomée
- 986
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X (100-100000071)
- Mainboard
- ASUS ProArt B550-Creator
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB (11324-01-20G)
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64) Xfce
- Verschiedenes
- ASUS TPM-SPI (Nuvoton NPCT750A)
Die ATi Radeon HD 5850 ist jetzt schon für nur 200 Euro gelistet. Bei breiter Verfügbarkeit (planmäßig in ein bis zwei Wochen) können das schnell 180 Euro werden.Es wird sicherlich unklug sein, sich instantan in den kommenden Tagen einer dieser Karten käuflich zu bemächtigen.
Zum Vergleich kostet eine nVidia GeForce GTX 275 zur Zeit 170 Euro. Demnach dürfte der Preis auch mit der Erscheinen der NextGen Karten von nVidia nicht deutlich fallen.
Wenn man wartet dann eher auf die Mainstream Modelle, wie die Radeon HD 5770. Aber bei den HighEnd Modelle sehe ich nicht sonderlich viel Spielraum nach unten.
Warten kann sich dennoch lohnen wegen fehlerbereinigter Revisions und vom Referenzdesign abweichender Layouts mit leiseren Kühlern oder mehr VRAM.
Zuletzt bearbeitet:
Das dachte man auch beim R600. Es wurden dann noch ein paar Monate mehr.Warum also jetzt sauer verdientes Geld für etwas ausgeben, was in 90 Tagen, nach Einführung der nVidia'schen GT300, zu einem wesentlich günstigeren Preis angeboten werden wird?
Ein fast 50% größerer Die vielleicht in 512-Bit-SI wird wohl schwer einen Preiskampf beginnen.
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
Es wird sicherlich unklug sein, sich instantan in den kommenden Tagen einer dieser Karten käuflich zu bemächtigen. Das Jahr neigt sich dem Ende zu, was heute noch funktioniert und arbeitet, tut dies auch in den kommenden 90 Tagen auch. Warum also jetzt sauer verdientes Geld für etwas ausgeben, was in 90 Tagen, nach Einführung der nVidia'schen GT300, zu einem wesentlich günstigeren Preis angeboten werden wird? Die Technik bleibt die gleiche, Karten diverser Hersteller werden gar qualitativ besser sein, weil neue Revisionen Erfahrungen mit dem Referenzdesign einbringen könn(t)en und soweiter und so fort.
ich finde die vermutung immer interessant, nach dem GT300 würden die preise stark sinken.
fakt ist, dass der GT300 viel größer und teuerer in der produktion wird und nvidia nicht unbedingt einen preiskrieg eingehen wird wollen. die schreiben seit mehreren quartalen auch nur verluste.
die werden sich preislich so hinstellen, wie es zur leistung passt. wie die auch immer aussehen mag.
gibt ja auch vermutungen, dass die karte eventuell gar nicht so gut wird, immerhin viel neuland für nvidia. vielleicht wird sie ein flop? r600 lässt grüßen.
davon abgesehen gehen auch viele vermutungen dahin, dass es noch ein halbes jahr dauert, bis nvidia überhaupt den GT300 marktreif hat.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 682
- Antworten
- 0
- Aufrufe
- 603
- Antworten
- 15
- Aufrufe
- 982
- Antworten
- 9
- Aufrufe
- 2K