News Spezifikationen der AMD Radeon R9 290 und R9 290X durchgesickert [Update]

Onkel_Dithmeyer

Redaktion
☆☆☆☆☆☆
Mitglied seit
22.04.2008
Beiträge
12.943
Renomée
4.014
Standort
Zlavti
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2012
  • BOINC Pentathlon 2013
  • BOINC Pentathlon 2014
  • BOINC Pentathlon 2015
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • BOINC Pentathlon 2020
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2022
  • BOINC Pentathlon 2023
Im Internet ist jetzt eine weitere Folie mit den vermeintlichen Spezifikationen der Radeon R9 290 und R9 290X aufgetaucht, die ganz offenbar aus der Feder von AMD stammt. Demnach verfügt die neue “Hawaii”-GPU nicht nur über die oft spekulierten 44 ROPs, sondern
(…)

» Artikel lesen
 
Zuletzt bearbeitet:
Zumindest die Spezifikationen sind keine Enttäuschung der Gerüchte, liegt ja durchaus im oberen Bereich der Erwartungen. Wobei ich ja mehr auf die 270X schiele, die könnte hochinteressant werden, falls Curacao mehr ist als nur ein umbenannter Pitcairn.

In dem japanischen Artikel heißt es übrigens auch, die 290 wäre innerhalb weniger Tage nach Vorstellung im Handel, bei der 290X könnte es Ende Oktober werden. Aber man weiß nicht, ob das eine handfeste Info oder nur eine Vermutung/Schätzung ist und/oder ob das nur bzw. in erster Linie für den japanischen Markt gilt.

Jedenfalls dürfte das erstmal wieder etwas Bewegung in den Grafikkartenmarkt bringen. Die alten Tahiti-Karten sind ja in den letzten Tagen auch schon drastisch im Preis gefallen. Jetzt müßte AMD nur noch eine ausreichend starke CPU rausbringen, damit man die GPU-Power auch "auf die Straße" kriegt.
 
4.6 TFLOPS für die 290 ist schon krass. Wie viel soll die GPU denn kosten?
 
Die Kollegen vom 3DCenter schätzen den Straßenpreis für die 290 bei 400 bis 450 €. Die 290X wird bei 540 bis 580 € vermutet.
 
Es deutet sich nach und nach tatsächlich an, dass die Karten nah an Titan herankommen können bzw. vielleicht in dem einen oder anderen Titel sogar einen Tick flotter sind.

Sollten sich die Performance-Prognosen einigermaßen bewahrheiten, so werde ich wohl zwei R9 290 bzw. R9 290X ins Auge fassen. Ich bin jedenfalls gespannt und würde mein Dreigespänner gern gegen zwei Neulinge tauschen.
 
Vielleicht kann man bei der R9 290 die fehlenden Shader wieder freischalten, so wie es bei der HD6950 der Fall war. Ansonsten sind die Spezifikation ja gleich, bis auf die 53MHz Chiptakt im Turbo Modus. Gehe zumindest vom Turbo aus, da auf der Folie "up to" vor den MHz steht.
 
Jetzt müßte AMD nur noch eine ausreichend starke CPU rausbringen, damit man die GPU-Power auch "auf die Straße" kriegt.

Das wird nicht nötig sein. Das Flaschenhals heißt mehr DirectX, wo 8 Kerne nicht bedient werden können. Mit Mantle darf man da schon mit Überraschungen rechnen.
 
Das wird nicht nötig sein. Das Flaschenhals heißt mehr DirectX, wo 8 Kerne nicht bedient werden können. Mit Mantle darf man da schon mit Überraschungen rechnen.

Woher hast du die Info? Wusste ich bis dato nicht.
 
Kann man aus den Daten irgendwie erahnen oder errechnen wie viel Watt das Teil hat, also wie viel maximal der Verbrauch der Karte ist? Welche AMD CPU sollte man mindestens für die Karten haben damit die CPU nicht der Flaschenhals wird? Kann mir dann auch noch wer dazu sagen welcher Intel CPU das entspräche?

Reicht PCIe 2.0 oder muss man 3.0 haben um das Teil richtig auszunutzen?

@Onkel_Dithmeyer
Irgendwo, ich glaube es war Heise Seite oder c´t, hab ich das auch gelesen mit Direct X als Bremse im Multicore-Bereich. Genau weiß ich das nicht mehr.
 
Auf die Shaderleistung würde ich bei der Prognose zur Spieleperformance nichts geben. Die 7970 GHz hat auch ca. 1/3 mehr Shaderleistung als die GTX680 und ist damit auf der Stufe der GTX780, was sich aber in den Spielen nicht wiederspiegelt. Die bekommt man bestenfalls bei den GPGPU Benchmarks zu Gesicht.
 
Zu Direkt X habe ich gerade das hier gefunden:
Der erste und somit wichtigste Punkt, welcher hervorgehoben wird, ist die verbesserte CPU-Performance. Diese soll durch besonders effizientes Rendering sowie Lade- und Stream-Vorgänge erreicht werden. Der Hinweis auf "perfectly parallel rendering - utilize all 8 CPU cores" klingt, wie oben bereits beschrieben, etwas merkwürdig, da DX11 bereits über Multithreading-Rendering verfügt, welches durch Aufteilung der Draw-Calls für verschiedene Objektgruppen ebenfalls eine gute Kernauslastung erreichen sollte - Crysis 3 macht es teilweise schon vor.
Quelle

@The_crow
Reicht PCIe 2.0 oder muss man 3.0 haben um das Teil richtig auszunutzen?
Wenn PCIe 2.0 zu stark limitieren würde, müsste man auf eine Intel CPU setzte. Da es bei AMD nur mit einem Brückechip PCIe 3.0 gibt und der ist auch nur an den PCIe 2.0 Bus angeschlossen, wenn ich mich recht erinnere. Bitte um Korrektur wenn es falsch sein sollte. Zudem gibt es nur ein MB bei AMD mit PCIe 3.0, hier noch ein Test zu PCIe 3.0 auf dem ASUS Sabertooth 990FX: http://www.planet3dnow.de/vbulletin/showthread.php/413392-ASUS-SABERTOOTH-GEN3-R2-0
 
Zuletzt bearbeitet:
Die 7970 hat allerdings das Frontend-"Problem", was ja jetzt hoffentlich Geschichte ist.
Sie hat vor allem weniger TMU Leistung als die GTX780 und zieht hier mit der GTX680 gleich, ist also anders ausgelegt.
 
Wenn PCIe 2.0 zu stark limitieren würde, müsste man auf eine Intel CPU setzte. Da es bei AMD nur mit einem Brückechip PCIe 3.0 gibt und der ist auch nur an den PCIe 2.0 Bus angeschlossen, wenn ich mich recht erinnere. Bitte um Korrektur wenn es falsch sein sollte.
Hier noch ein Tet zu PCIe 3.0 auf dem ASUS Sabertooth: http://www.planet3dnow.de/vbulletin/showthread.php/413392-ASUS-SABERTOOTH-GEN3-R2-0

Korrekt, der Brückenchip "wandelt" PCIe 2.0 in 3.0 um. Die Kommunikation zum Chipsatz erfolgt im letzten Schritt dann mittels 2.0. Dank des Brückenchips wird das Board dann deutlich teurer, leistet unterm Strich aber nicht wirklich mehr, sodass es mit der aktuellen Grafikkarten-Generation nicht wirklich was bringt. Wenn man jetzt aber die Gedanken von brückenlosem CrossFire mit den neuen R9-290-Karten in die Waagschale wirft, so könnte man bei der Kommunikation der Grafikkarten untereinander sogar einen Vorteil zugunsten PCIe 3.0 sehen.

Doch das hilft auch nicht dagegen, dass ASUS das SABERTOOTH/GEN3 R2.0 nicht mehr herstellen lässt... :(
 
nun ja, selbst auf einem Intel System wird das nichts mit 2 x X16 PCIe 3.0 Slots.
Ivy & Haswell haben eben nun mal nur 1x 16 Lanes für den PEG, also müsste dort doch dann auch ein PLX zum Einsatz kommen oder ?
Oder es stünden dann nur 2x X8 zur Verfügung.
Bei normalen SLI & CF wie es bis jetzt war reichen ja 2x X8 vollkommen aus.
Warten wir die ersten CF Tests ab. Dann wissen wir mehr.
 
Zuletzt bearbeitet:
@ceVoIX und @MusicIsMyLife
Danke für die Infos.
Also kann man sagen 3.0 braucht man noch nicht und limitiert auch nicht so stark oder was nun? Welche CPUs sollte man in den Kisten haben wenn man so eine Karte kaufen will?

Ist Mantle eigentlich erst mal nur für Windows geplant? Wie sieht es mit Linux/SteamOS aus?
 
@ceVoIX und @MusicIsMyLife
Danke für die Infos.
Also kann man sagen 3.0 braucht man noch nicht und limitiert auch nicht so stark oder was nun? Welche CPUs sollte man in den Kisten haben wenn man so eine Karte kaufen will?

Ist Mantle eigentlich erst mal nur für Windows geplant? Wie sieht es mit Linux/SteamOS aus?

Für eine Single Karte reicht V2.0/V2.1 vollkommen aus. Dürfte wohl wirklich erst mit den neuen Karten im CF sich bemerkbar machen, aber dann wäre wieder die Frage die ich oben gestellt habe

Mantle soll ja auch auf der PS4 laufen, und die hat ja ein FreeBSD oder ?
 
Zuletzt bearbeitet:
@mickythebeagle
Ok das ist mal was mit dem ich was anfangen kann.
Zur PS4 Orbis OS basiert laut Wiki auf FreeBSD und so weit ich das mitbekommen habe stimmt deine Aussage mit Mantle und BSD bezogen dann auf die PS4. BSD != Linux aber leicht umsetzbar wäre es. Bei der PS4 kommt sicher wieder OpenGL ES http://en.wikipedia.org/wiki/OpenGL_ES zum Einsatz.
Also nichts was man nicht auf irgend ein Linux inklusive SteamOS portieren könnte. Man könnte auch den Steam-Client auf BSD porten oder besser porten lassen wenn Mantle nur auf Orbis und unter Windows erst mal laufen würde. FreeBSD Version von Mantle dank PS4 könnte Mantle wiederum unter MacOS einfacher zum laufen bringen weil das ja auch als Basis irgend was mit BSD nutzt aber das führt hier zu weit.

Welche CPU sollte man dann nehmen wenn man über den kauf einer der beiden GPUs nachdenkt? Tendiere zu AMD. Als RAM dann 8 - 16 GB DDR3 RAM oder?
 
Zuletzt bearbeitet:
Für eine Single Karte reicht V2.0/V2.1 vollkommen aus. Dürfte wohl wirklich erst mit den neuen Karten im CF sich bemerkbar machen, aber dann wäre wieder die Frage die ich oben gestellt habe

Ja, bei S1155 bräuchtest du dann wieder einen Bridge-Chip, der die 16 Lanes "erweitert". Bei Sockel 2011 bekommt man bei einem Ivy Bridge E satte 40 PCIe-Lanes mit Spezifikation nach PCIe 3.0. Damit ist dann SLI/CF mit 2x PCIe x16 3.0 drin. Aber ganz ehrlich: Nur wegen PCIe 3.0 würde ich auf keinen Fall auf S2011 umsteigen (wenn ich es nicht ohnehin schon hätte). Mir fehlt nur noch ein 4930K....
 
Zu Direkt X habe ich gerade das hier gefunden:

Quelle

Soweit ich weiß funktioniert das derzeit mit höchstens vier Kernen vernünftig bei der CryEngine - weitere Kerne bringen kaum Vorteile. Das ist es jedenfalls, an was ich mich aus den Dev-Posts im Star Citizen Forum erinnere.
 
Die PCIe Spezifikation sieht bei 6Pin+8pin maximal 300W vor.
75W Mainboard
+75W 6-Pin
+150W 8-Pin
__________
= 300W
=========

Also liegt die Karte irgendwo zwischen 225W und 300W


PCIe 2.0 sollte in der 16x Variante im ~1% Bereich Performance kosten (auch bei den nächsten 2 Gen. dürfte sich das kaum bis gar nicht ändern), viel wichtiger ist eine potente CPU.
 
@bbott
OK. Heißt dann am Ende so 500 Watt Netzteil reicht so. Ja das mit der CPU ist halt die Frage. Welche müsste es denn sein damit diese nicht zum Flaschenhals wird? Da es vielleicht 1 FPs oder 2 FPs sind kann man getrost auch zu AMD greifen nur habe ich da auch keine Idee welche man nehmen könnte.
 
Die Enermax Triathlor Reihe ist ganz gut, als Anhaltspunkt für NTs nutze ich http://www.enermax.outervision.com/.

Bei der CPU würde ich wenn ich neu kaufen müsste für Zocker-PCs zu Intel greifen. Die APUs halte ich für fehl am Platz und die AM3+ Plattform ist nun mal (leider) tot. AMD hat z. Z. keine leider attraktiven CPUs meiner Meinung nach, auch nach Besserung in nächster Zeit sieht es nicht aus :(

Wenn nicht bald was kommt werde ich wohl zum ersten mal beim Desktop zu Intel greifen müssen. Außer das APU Konzept schlägt doch noch in dem kommenden Jahr voll durch, was ich aber für extrem unwahrscheinlich halte.
 
Das wird nicht nötig sein. Das Flaschenhals heißt mehr DirectX, wo 8 Kerne nicht bedient werden können. Mit Mantle darf man da schon mit Überraschungen rechnen.
Mantle wirst du vorerst nur bei BF4 sehen und selbst hier muss man abwarten, ob die FX so massiv profitieren im CPU-Limit. Die meisten Spiele kranken bei den FX an der schwachen ST-Leistung, nur mit viel parallelem Integer-Code stehen die FX gut.

Soweit ich weiß funktioniert das derzeit mit höchstens vier Kernen vernünftig bei der CryEngine - weitere Kerne bringen kaum Vorteile. Das ist es jedenfalls, an was ich mich aus den Dev-Posts im Star Citizen Forum erinnere.
Crysis 3 skaliert brav bis auf sechs und achte Kerne.
 
Vielleicht kann man bei der R9 290 die fehlenden Shader wieder freischalten, so wie es bei der HD6950 der Fall war. Ansonsten sind die Spezifikation ja gleich, bis auf die 53MHz Chiptakt im Turbo Modus. Gehe zumindest vom Turbo aus, da auf der Folie "up to" vor den MHz steht.
Glaube ich zwar nicht, aber ausschließen würde ich es auch nicht. ;)

Welche AMD CPU sollte man mindestens für die Karten haben damit die CPU nicht der Flaschenhals wird? Kann mir dann auch noch wer dazu sagen welcher Intel CPU das entspräche?
Das kommt darauf an wie du den Flaschenhals definierst.
Ich würde mindestens ein FX-8320 nehmen, das entspricht bei optimierten Spiele einem I7-3770k sofern die GPU Stark genug ist.
Die meisten Spiele die ich nutze, bringt ein FX-8350 eine einzelne Karte locker auf 100% Auslastung, das ist mir aber zu laut.
Mit 2 Karten Laufen beide bei um die 60-80% und bleiben damit leiser als eine einzelne Karte, das lass ich mich auch was kosten (Strom).
Der PCIe 3.0 Brückenchip auf den Sabertooth Gen3 braucht weniger Strom als das native PCIe 2.0 vom Chipsatz. Bei 2 Karten summiert sich die Einsparung sogar.

Mantel ist eine low Level API, diese steht noch vor dem OS. Sollte somit auf sämtlichen OS zum laufen zu bringen sein. ;)

MfG
 
Zuletzt bearbeitet:
Zurück
Oben Unten