News Angriff auf die Leistungskrone: AMD stellt Radeon HD 7990 vor

Dr@

Grand Admiral Special
Mitglied seit
19.05.2009
Beiträge
12.791
Renomée
4.066
Standort
Baden-Württemberg
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2012
<div class="newsfloatleft"><a href=" "><img src="http://www.planet3dnow.de/photoplog/images/54308/1_AMD-Radeon-Logo-2013.png" border="0" alt="AMD Radeon Logo 2013"></a></div>AMD hat heute das Referenzmodell der Radeon HD 7990 offiziell vorgestellt. Mit der neuen Grafikkarte hat sich das rote Team nichts geringeres zum Ziel gesetzt als die Rückeroberung der Titels "Schnellste Grafikkarte der Welt". Damit dieses ambitionierte Ziel erreicht werden kann, setzt die Dual-GPU-Grafikkarte "Malta" auf zwei <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1324537822">"Tahiti"-GPUs im Vollausbau</a>, die mit 950 MHz befeuert werden. Sollte ein entsprechender TDP-Spielraum vorhanden sein, können sie auf 1 GHz beschleunigt werden. Somit liegen die Taktraten zwischen jenen der normalen Radeon HD 7970 und der später veröffentlichten <i>GHz Edition</i>. Diese hohen Taktraten kann AMD wahrscheinlich nur durch eine spezielle Selektierung entsprechend genügsamer Dies erzielen. Zudem dürfte die Produktion der 28-nm-GPUs bei TSMC mittlerweile deutlich besser laufen. Der 2x 3 GByte große GDDR5-Speicher läuft hingegen mit den vollen 1.500 MHz der <i>GHz Edition</i>.<p style="clear:left;">
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=24090"><img src="http://www.planet3dnow.de/photoplog/images/54308/large/1_01-AMD-Radeon-HD-7990.png" border="1" alt="AMD Radeon HD 7990"></a></center>

Untergebracht sind die zwei GPUs nebst den GDDR5-Speicherchips und der üppig dimensionierten Stromversorgung auf einem einzigen PCB. Für die Kommunikation zwischen der CPU und der Grafikkarte sowie den beiden GPUs untereinander sorgt ein PLX-Chip mit 48 PCIe-3.0-Lanes. Eine ausreichende Stromversorgung mit maximal 375 Watt stellen die beiden 8-Pin-Stecker sicher - im Zweifelsfall greift PowerTune ein und drosselt den GPU-Takt. Damit die immense Wärme möglichst geräuscharm abgeführt werden kann, setzt das Referenzdesign auf ein Dual-Slot-Kühlsystem mit großem Kühlkörper und drei hintereinander angeordneten 85-mm-Axiallüftern.

<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=24097"><img src="http://www.planet3dnow.de/photoplog/file.php?n=24097" border="1" alt="AMD Radeon HD 7990"></a> <a href="http://www.planet3dnow.de/photoplog/index.php?n=24098"><img src="http://www.planet3dnow.de/photoplog/file.php?n=24098" border="1" alt="AMD Radeon HD 7990"></a></center>

AMD will mit dieser Konfiguration einen leiseren Betrieb als bei den Referenzdesigns der Radeon HD 7970 bzw. deren <i>GHz Edition</i> ermöglichen und sieht sich sogar besser aufgestellt als die Konkurrenz. Wie die <a href="http://www.computerbase.de/artikel/grafikkarten/2013/amd-radeon-hd-7990-im-test/9/" target="b">Messungen von <i>ComputerBase</i></a> allerdings zeigen, hängt der tatsächliche Geräuschpegel entscheidend von der Belüftung des Gehäuses ab. Laut den Fußnoten hat AMD seine eigenen Messungen an einem offenen Aufbau in 50 cm Entfernung vorgenommen.
Mit ihrer - zumindest theoretisch - brachialen Rechenleistung bietet sich die Radeon HD 7990 förmlich für den Aufbau eines Eyefinity-Systems an. Entsprechend verfügt die Karte über gleich vier DisplayPort-1.2 und einen Dual-Link-DVI-Anschluss.

<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=24091"><img src="http://www.planet3dnow.de/photoplog/images/54308/small/1_14-AMD-Radeon-HD-7990.png" border="1" alt="AMD Radeon HD 7990"></a> <a href="http://www.planet3dnow.de/photoplog/index.php?n=24092"><img src="http://www.planet3dnow.de/photoplog/images/54308/small/1_21-AMD-Radeon-HD-7990.png" border="1" alt="AMD Radeon HD 7990"></a> <a href="http://www.planet3dnow.de/photoplog/index.php?n=24093"><img src="http://www.planet3dnow.de/photoplog/images/54308/small/1_22-AMD-Radeon-HD-7990.png" border="1" alt="AMD Radeon HD 7990"></a> <a href="http://www.planet3dnow.de/photoplog/index.php?n=24094"><img src="http://www.planet3dnow.de/photoplog/images/54308/small/1_23-AMD-Radeon-HD-7990.png" border="1" alt="AMD Radeon HD 7990"></a> <a href="http://www.planet3dnow.de/photoplog/index.php?n=24095"><img src="http://www.planet3dnow.de/photoplog/images/54308/small/1_24-AMD-Radeon-HD-7990.png" border="1" alt="AMD Radeon HD 7990"></a></center>

Einen großen Wermutstropfen hat dies aber alles: Wie jedes Dual-GPU-Gespann ist auch die Radeon HD 7990 von dem Problem der Mikroruckler betroffen. Wie <a href="http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-HD-7990-6GB-Review-Malta-Gets-Frame-Rated" target="b"><i>PC Perspective</i></a> in seinen Artikeln zu dieser Problematik sehr deutlich aufzeigt, gilt dies ganz besonders für AMDs CrossFire-Technologie. Obwohl das Unternehmen seit der Radeon HD 3870 X2 (Januar 2008) auf Dual-GPU-Lösungen als Gegenstück zu NVIDIAs High-End-Grafikkarten mit deutlich größeren Chips setzt, hat sich AMD um dieses Problem nicht weiter gekümmert. Auch nach der Vorstellung der NVIDIA GeForce GTX 690 (Mai 2012), mit der die Grünen neben Software- erstmals auch Hardware-Maßnahmen zur Bekämpfung von Mikrorucklern eingeführt haben, kam es offenbar zu keinem Umdenken im roten Lager. Erst die Artikel von <a href="http://techreport.com/review/21516/inside-the-second-a-new-look-at-game-benchmarking" target="b"><i>Tech Report</i></a> und schließlich die bereits erwähnten von <i>PC Perspective</i> sorgten für die erneute visuelle Aufbereitung der längst bekannten Problematik - allerdings mit Hilfe eines neuen Ansatzes. Dadurch wurde die zeitliche Abfolge der einzelnen Bilder und deren Bedeutung für das daraus folgende Spielerlebnis erneut zum Thema, welches einige Wellen im Netz schlug. Letztlich brachte dies den Stein allerdings ins Rollen. Ende März gestand AMD ein, dass man ein Problem habe und kündigte schließlich gegenüber <a href="http://www.anandtech.com/show/6857/amd-stuttering-issues-driver-roadmap-fraps">AnandTech</a> an, sich doch um die Problematik kümmern zu wollen. Der Catalyst-Treiber soll demnach um eine Art Feedback-Funktion ergänzt werden, die für eine gleichmäßigere Bildfolge sorgen soll. Die Entwicklung jener Funktionalität wurde offenbar erst vor ca. einem Monat gestartet. Da es sich hierbei um einen größeren Eingriff in die Treiberpipeline handelt, kann wohl frühestens im Juni oder Juli 2013 mit einer Verfügbarkeit dieser Funktionalität für Endkunden gerechnet werden. Einige Tester haben eine sehr frühe Alpha-Version bereits von AMD zu Testzwecken erhalten, <a href="http://www.pcper.com/reviews/Graphics-Cards/Frame-Rating-AMD-Improves-CrossFire-Prototype-Driver/great-start-AMDs-CrossFi" target="b">welche bereits Fortschritte erkennen lässt</a>.

Ob diese Problematik durch die Beilage von gleich acht Computerspielen ausgeglichen werden kann, muss jeder für sich entscheiden. Die Radeon HD 7990 geht jedenfalls voraussichtlich in zwei Wochen für 999,- US-Dollar (einen Euro-Preis konnte uns AMD nicht nennen) auf Kundenfang.

<b>Quelle:</b> <a href="http://www.amd.com" target="b">AMD</a>

<b>Links zum Thema:</b>
<ul><li><a href="http://www.computerbase.de/artikel/grafikkarten/2013/amd-im-interview-zur-radeon-hd-7990-und-zu-mikrorucklern/" target="b">AMD im Interview zur Radeon HD 7990 und zu Mikrorucklern</a> [ComputerBase]</li><li><a href="http://www.pcper.com/reviews/Graphics-Cards/Frame-Rating-AMD-Improves-CrossFire-Prototype-Driver/great-start-AMDs-CrossFi" target="b">Frame Rating: AMD Improves CrossFire with Prototype Driver</a> [PC Perspective]</li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1366696559">Roadmap für kommende "Never-Settle"-Spielebündel aufgetaucht</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1366640086">Raja Koduri kehrt nach Zwischenspiel bei Apple zu AMD zurück</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1365702794">Never Settle Reloaded: AMD erweitert Spielebündel</a></li></ul></p>
 
Da ist jetzt der selbe PLX Chip drauf wie auf den Partnerkarten, obwohl angeblich nicht/schlecht lieferbar und deswegen für Verspätungen der Karte gesorgt haben soll.:]
2x 8-pin Stromstecker um die durchschnittliche TDP zu gewährleisten ist im Gegensatz zu den bereits vorhandenen Karten bisserl sehr weinig.. Bei CB kommt man schon auf ~35 W Mehrverbrauch, wenn man 110 W für's übrige System einrechnet.
Insgesamt wirkt die Karte eher wie ein gewöhnlicher Plastebomber ohne jegliche Zusatzfeatures. Gut, die Spiele. Ob die in der Preisklasse eine Rolle spielen?
Irgendwie langweilig nach so langer Wartezeit.
 
Sie haben jedenfalls mit relativ wenig Aufwand (d.h. ohne einen neuen Chip zu bauen) eine neue Karte im Handel. Das konnten sie sich aus Marketinggründen wohl nicht entgehen lassen. Aber solche fetten Karten sind sowieso nichts für den Massenmarkt, insofern ist es wohl relativ egal, wie gut die einschlägt. Wenn sie den angesprochenen Treiber in Bälde hinkriegen, dann können sie wenigstens die Benchmarks gewinnen, und das ist ja immer wichtig für's Marketing der anderen Karten.
 
Da ist jetzt der selbe PLX Chip drauf wie auf den Partnerkarten, obwohl angeblich nicht/schlecht lieferbar und deswegen für Verspätungen der Karte gesorgt haben soll.:]
2x 8-pin Stromstecker um die durchschnittliche TDP zu gewährleisten ist im Gegensatz zu den bereits vorhandenen Karten bisserl sehr weinig.. Bei CB kommt man schon auf ~35 W Mehrverbrauch, wenn man 110 W für's übrige System einrechnet.
Insgesamt wirkt die Karte eher wie ein gewöhnlicher Plastebomber ohne jegliche Zusatzfeatures. Gut, die Spiele. Ob die in der Preisklasse eine Rolle spielen?
Irgendwie langweilig nach so langer Wartezeit.

und nicht zu vergessen:
lautheit "wenn ich scho abwärme im case will dann aber vernünftig"
zirpen bei 2 stelligen fps zahlen? ne behaltet den dreck
verbrauch "ok war zu erwarten"

Nach über einem jahr echt traurig. :-/
 
@Tomato
Du kannst aus dem System Verbrauch ablesen was die Karte selbst frißt? Erstaunlich....

Lass mich raten....den Wirkungsgrad des Netzteils vergessen?
 
Naja, die Verbrauchsdaten der Karten hat man ja in etwa im Kopf.
Auf solche Ideen kommt man ja auch nur, weil der Hersteller seine Anschlüsse nach durchschnittl. TDP und nicht nach max. TDP entworfen hat.
 
Das Spiele-Bundel wertet die Karte etwas auf. - Ansonsten scheint die GTX 690 haptisch gar nicht und leistungstechnisch nicht wirklich abgesägt zu werden. - Am Ende entscheidet es wohl ein Treiberduell.
Und bezüglich der Verarbeitung: Vielleicht schicken die Boardpartner was feines ins Rennen, WaKü wäre sicherlich zu präferieren.

BTW: So einen Stromverbrauch würde ich mir wohl nie freiwillig antun.^^
 
Och Leute wen ich das Gejammer schon wider über den Stromverbrauch höre.
Und ja Ich zahle mein Strom selber:P
Aber mal ehrlich wer so viel Geld ausgibt der jammert doch nicht über die paar WATT.
Wer ein Lamborghini kauft jammert auch nicht über die Sprit preise.
Also was soll das immer?
 
Naja wäre schon interresant das Teil wenn es zwischen 600-700 Euro kostet. Von den Spielen hab ich eh schon die Hälfte. Mal sehen was der Treiber bringt, wer weiß, da ich eh auf 2x7970 aufrüsten müsste und ich zwar die Titan gut finde aber eindeutig zu teuer, könnte das schon nen gutes Angebot werden.

Strom ist pille palle, Als Bsp 2011 Stomverbrauch 4500KW/h im Jahr. 2012 nur noch 3500KW/h bei einem 3 Personenhaushalt. Änderungen in der Zeit, die Rechner welche am längsten laufen meist 24/7 abgespeckt. Server und Desktop bekamen E-350 mit SSDs und Ubuntu. Die Watt die ich da spare kann ich bei meinem Gaming-PC verballern und der braucht schon seine 700 Watt. Mediacenter wurden auf stromsparen getrimmt und mit A-Serien CPUs ausgestattet. Im Haushalt wurden noch Glübirnen gegen Stromsparlampen getauscht oder gegen Neonröhren bzw LED-Lampen. Der größte Stromfresser war allerdings nen alter 80cm Röhrenfernseher.
Wenn man bedenkt, das beim BIONC Wettbewerb mein großer PC 24/5 lief beim GPU-Projekt sogar unter Volldampf und ich auch viel spiele sind die paar Watt für mich nicht ausschlaggebend. Zumal AMDs Zero-Power dafür sorgen wird, das im IDLE ein guter Wert zustande kommt.

Zur Lautstärke: Wer sonen Teil mit Luft kühlt ist echt abgehärtet. Aber mittlerweile bin ich vllt verwöhnt.
 
moin,
wer solch eine karte kauft, hat möglicherweise auch geld für ein gedämmtes gehäuse übrig! und kümmert sich ebensowenig um eine tdp von ca 380w.
gestern habe ich einige tests gelesen und es zeigt sich daß die karte sehr wohl einer gtx 690 überlegen ist, wenn eine ebenso potente cpu installiert ist.
die benchmarks mit einem core i7-2600k und einem core i7-3960x (guru3d) zeigen deutliche unterschiede.

es ist natürlich nur ein zufall, daß deutschsprachige tester wie gewöhnlich die gtx 690 für knapp überlegen halten (die 7990 mit einer 4-kern cpu testen??!!) wir testen auch einen roten italienischen sportwagen mit einem drehzahlbegrenzer bei 3000 umdrehungen/min.

über den sinn eines solchen grafikmonsters mag und soll auch gestritten werden - aber doch bitte fair!
 
moin,
wer solch eine karte kauft, hat möglicherweise auch geld für ein gedämmtes gehäuse übrig! und kümmert sich ebensowenig um eine tdp von ca 380w.
gestern habe ich einige tests gelesen und es zeigt sich daß die karte sehr wohl einer gtx 690 überlegen ist, wenn eine ebenso potente cpu installiert ist.
die benchmarks mit einem core i7-2600k und einem core i7-3960x (guru3d) zeigen deutliche unterschiede.

es ist natürlich nur ein zufall, daß deutschsprachige tester wie gewöhnlich die gtx 690 für knapp überlegen halten (die 7990 mit einer 4-kern cpu testen??!!) wir testen auch einen roten italienischen sportwagen mit einem drehzahlbegrenzer bei 3000 umdrehungen/min.

über den sinn eines solchen grafikmonsters mag und soll auch gestritten werden - aber doch bitte fair!

wem der preis egal ist holt sich n paar titans +wakü
kein zirpen und mehr leistung ;D "bzw hat eh schon cf 7970 wenns amd sein müsst"
 
Zuletzt bearbeitet:
Oder sie bleiben wie Blei im Schrank liegen, da man ja das Mikroruckeln bei Dual-GPU-Karten/Systemen nicht in den Griff bekommt, fragt sich wie man das in den 90er Jahren 3DFX das hinbekommen hat, diese Probleme nicht zu haben bei 2 Ad-On Karten + Grafikkarte ?
 
Oder sie bleiben wie Blei im Schrank liegen, da man ja das Mikroruckeln bei Dual-GPU-Karten/Systemen nicht in den Griff bekommt, fragt sich wie man das in den 90er Jahren 3DFX das hinbekommen hat, diese Probleme nicht zu haben bei 2 Ad-On Karten + Grafikkarte ?

Bei heutigen Multi-GPU-Systemen rendern die einzelnen GPUs einzelne Frames. Diese können unterschiedlich lange brauchen für die Berechnung, daher das Ruckeln. 3dfx hat nicht ganze Frames sondern nur die Zeilen eines Bildes von den verschiedenen GPUs rendern lassen. Daher der Begriff SLI für Scan Line Interleave. Das Verfahren ist an Sich praktischer, aber mit heutigen Grafik-APIs nicht in Einklang zu bringen. DirectX nutzt heute Effekte, die über die Zeilen hinnaus gehen. Daher ist es nicht möglich, dass die eine GPU unabhängig von den Daten der anderen GPU eine Zeile berechnen könnte. Dafür bräuchte man schon ein mächtiges Interconnect, da ist es einfacher die GPUs die einzelnen Frames rendern zu lassen. Wobei ich mir auch schon mal überlegt habe, ob es nicht möglich wäre die GPUs auf den gleichen RAM zugreifen zu lassen. Das ist aber reine Spekulation. ^^
 
Zurück
Oben Unten