Warum ist Nvidias Performance/Watt besser ?

@Night<eye>
em schau mal bei Tom genau hin das ist keine 270X sondern eine non x die sie da testen, somit wären die Ergebnisse realistisch.
lg
 
Mit der Fury sollte sich nun auch das Thema erledigt haben, dass Nvidia besser bei Performance/Watt ist.

Fury X: Idle 5W, Gaming 220W
GTX 980 Ti: Idle 10W, Gaming 233W

--- Update ---

Einige Luxmark Werte.





Etwa vergleichbare Leistungsaufnahme der Fury X zur GTX 980 Ti, aber über 80% schneller. Wollen wir jetzt einen Thread aufmachen, warum AMDs Performance pro Watt so viel besser ist? *chatt*
 
AMD hat bei der GCN Architektur immer noch nichts verbessern können, klare Absage!

Nvidia konnte beim gleichem Prozess (Kepler>Maxwell) die Effizienz um 50% steigern.

Bei GCN hat sich seit der Ersten Version in der Architektur kaum was getan,
man hat lediglich bei Hawaii das Frontend aufgebohrt, die GPU Shader von Fiji sind nicht schneller als Hawaii geworden.

Nvidia hat die Anzahl der ALUs von 192 auf 128 reduziert !

Wann sehen wir bei AMD ein Cluster mit weniger Shader und mehr Performance?

64 Shader pro CU von Fiji sind nicht schneller als 64 Shader pro CU als Hawaii !

AMD braucht eine besseres Design mit einer CU die 50% mehr Power hat, unabhängig vom Prozess !

Früher hatte AMD deutlich kleinere DIEs und war trotzdem gut.

Heute hat Nvidia bei Effizienz & Design deutlich die Nase vorn!
 
Zuletzt bearbeitet:
Solche Vergleiche sind einfach quatsch und das wurde hier alles schon diskutiert.
Dein abschließender Satz ist ein beispielloses Stück argumentationsloser Polemik.

AMD hat schon 64 Shader pro Cluster....Sollen die auf 32 gehen, weil Nvidia von 192 auf 128 ist? Daran sieht man doch, wie unsinnig das als Argument ist.

GCN ist eine langfristige Investition, was dank der Konsolen auch Sinn macht.

AMD hat momentan besseres zu tun, als noch schnell eine neue GPU-Architektur in 28nm auf den Markt zu schmeißen.
Die Entwicklung und der Test von HBM ist z.B. langfristig für uns alle gut, sogar für Nvidia. ;)
Und Fiji zeigt, dass AMD mit GCN auch zu Maxwell konkurrenzfähig ist. Mit der Fury Nano dürfte Nvidia sogar alt aussehen, was die Effizienz angeht (Aber das bleibt Spekulation bis das Ding draußen ist und getestet wurde).

In 14nm gibts dann auch von AMD neue Kern-IP, wobei ich davon ausgehe, dass auch diese essentiell auf GCN aufbauen und die Features übernehmen wird.
 
Zuletzt bearbeitet:
AMD hat bei der GCN Architektur immer noch nichts verbessern können, klare Absage!

Nvidia konnte beim gleichem Prozess (Kepler>Maxwell) die Effizienz um 50% steigern.

Irgendwie widerspricht sich das.

nVidia hat eine komplett neue Architektur aufgelegt, während AMD aus der bestehenden beachtliches herausgeholt hat. Das sind immerhin 2 Paar Schuhe. Würde nVidia Kepler als Grundlage genommen haben, sähe die Effizienz wohl auch "kaum" besser als Kepler selbst aus.
 
AMD hat bei der GCN Architektur immer noch nichts verbessern können, klare Absage!

Nvidia konnte beim gleichem Prozess (Kepler>Maxwell) die Effizienz um 50% steigern.

Bei GCN hat sich seit der Ersten Version in der Architektur kaum was getan,
man hat lediglich bei Hawaii das Frontend aufgebohrt, die GPU Shader von Fiji sind nicht schneller als Hawaii geworden.
Willst du nun damit sagen, dass Nvidia es 4 Jahre lang nicht geschafft hat die "veraltete" GCN-Architektur zu schlagen mit ihrer Architektur? Wenn Kepler->Maxwell 50% Effizienzsteigerung gebracht hat und GCN nun mit Maxwell gleich effizient ist - oder wie von gruffi gezeigt in Luxmark 80% effizienter als Maxwell 2.0!
Welcher Käufer hat deiner Meinung nach vor 4 Jahren das bessere Geschäft gemacht?

Wer noch Highend kauft ohne HBM ist selber Schuld und wird sich in 4 Jahren erneut wundern warum Nvidia all 6 Monate Effizienzsprünge macht von 50% und dann trotzdem noch von AMD bei Effizienz im Regen stehen gelassen wird wenn es um richtige Workloads geht, welche die gesamte GPU beanspruchen.
 
Nvidia konnte beim gleichem Prozess (Kepler>Maxwell) die Effizienz um 50% steigern.
Klar. Unter anderem durch eine aberwitzige Anzahl von Spannungswechseln, die Netzteile und z.T. Mainboards an den Rand ihrer Möglichkeiten bringt, sowie weiteres Reduzieren der DP-Leistung (das hat AMD nun auch getan und schon ist AMDs Effizienz je nach Situation höher oder etwas niedriger).
 
AMD hat ja die DP Leistung im Vergleich zu Tonga nicht verändert. Immer noch doppelt so hohe Ratio wie Maxwell 2.0. Die Tatsache, dass Nvidia erst mit Pascal wieder GPUs mit zusätzlicher DP-Leistung für das Profisegment bringen wird, lässt Hawaii hier noch lange dominieren mit 1:2 DP Leistung. HBM wird wohl Aufgrund des deutlich höheren RAM Bedarfs erst in der nächsten Ausbaustufe für das Profisegment relevant. Und bis Pascal kommt ist AMD ebenfalls mit einem Shrink am Start - eher sogar noch vor Nvidia wenn man sich die Entwicklung 14nm vs. 16nm anschaut derzeit und AMDs Vorsprung bei Interposer, HBM und der Adaptierung von neuen Fertigungen an die eigene Architektur anschaut. Ich wüsste nicht wann AMD mal 4 Respins gebraucht hätte wie Nvidia beim Maxwell um ein Produkt zu launchen.

Hinzu kommt, dass bisher nichts gutes von den 16nm FF von TSMC zu lesen war im Gegensatz zu den 14nm von Samsung, die schon verfügbare Produkte vorweisen können. Auch wird man sehen müssen wie viel Zeit Nvidia mit der Entwicklung auf HMC vergeudet hatte bevor sie auf HBM geschwenkt sind und ob sie es diesmal hin bekommen Unified Memory zu integrieren.

Sollte Nvidia wirklich bei allen Bereichen aufholen wollen wird das ein enormer Sprung, wie er zuvor noch nicht zu sehen war.
- Deutlich erhöhte DP
- Unified Memory
- Neuer Prozess (einziger bekannter Anwender der 16nm FF bisher)
- Neue Architektur
- VESA Adaptive Sync (ich denke es führt kein Weg drumherum für Nvidia)
- erstmaliges Interposer Design
- HBM

Ob das gut gehen kann wenn so vieles auf einmal balanciert werden muss ist fraglich. Hier wird man etwas wie Maxwell 1.0 erwarten dürfen zu Beginn und die Highend Chips deutlich später.
 
...wie viel Zeit Nvidia mit der Entwicklung auf HMC vergeudet hatte bevor sie auf HBM geschwenkt sind...
Gibt es dafür eine Quelle? Ich habe nVidia stets von "stacked DRAM" sprechen gehört. Dass damit HMC gemeint war, könnte von der Presse angedichtet worden sein. Wenn ich dieses Foto einer nVidia Veranstaltung von Anfang 2013 betrachte, sieht dies für mich mehr nach HBM als HMC aus:

pascaltckiy.jpg


Die Zeichnung vom "stacked DRAM" unterhalb der Überschrift hat man zwar bei Micron gemopst, aber dies muss nichts bedeuten.
 
... Wollen wir jetzt einen Thread aufmachen, warum AMDs Performance pro Watt so viel besser ist? *chatt*

Ich weiß nicht, das wäre bestimmt auch wieder so ein grenzwertiger Thread, wie dieser hier.

Am Ende hat AMD mit der Fiji den Anschluss im High-End-Gamer-Bereich geschafft und zeigt Effizienzverbesserungen.
Zur gleichen Zeit haben sie mit Interposer und HBM-Speicher neue Technik erforscht und ein GPU-Produkt zur marktreife gebracht.
Jetzt hat AMD die Chance Fehler und/oder Verbesserungen zu finden, denn das Produkt ist in freier Wildbahn und nicht mehr nur unter Labor-Bedingungen. Im Enddefekt testet der User HBM-Grafikkarten auf Herz und Nieren und gibt AMD die Möglichkeit die Technik weiter zu verfeinern.
Ich gehe davon aus, das sich hier noch einiges tun wird. Fiji ist erst der Anfang und nicht das Ende von Interposer-GPUs.
Nur mal ein Denk-Anstoß - wenn man die Speichergeschwindigkeit betrachtet, scheint da mit 500 MHz noch lange nicht das Ende der Fahnenstange erreicht zu sein.
Ich sehe Fiji also nicht als Grund sich auszuruhen, sondern als Start in eine andere Ära des Grafikkarten-Designs.

Es wird noch ganz schön interessant....
Gruß Lehmann
 
2013 ist allerdings ca. 2 Jahre nachdem AMD mit HBM angefangen hat zu entwickeln. Dies hat 2011 angefangen.
Das passt zeitlich zur kompletten Umkrempelung der Roadmap:
http://www.heise.de/newsticker/meld...ebremst-Volta-wohl-noch-vor-2020-2160743.html
Die Entwicklung von Maxwell gleicht dabei einer Leidensgeschichte: Ursprünglich wurde die GPU im Jahr 2010 für 2013 angekündigt. Im Januar 2011 versprach Nvidias General Manager Michael Rayfield, dass Maxwell-Grafikchips sogar integrierte ARM-Rechenkerne mitbringen sollen. Dann kam 2013 der Umschwung: schließlich sollte erst Volta integrierte ARM-Kerne bieten und Maxwell erst 2014 statt 2013 herauskommen, aber mit Unified Virtual Memory und aus der 20-nm-Fertigung. Nun bieten die ersten "Maxwell"-Abkömmlinge nichts von alledem, arbeiten aber immerhin effizienter.
Vor dieser Umstellung war Volta mit 3D-Stacking in der Roadmap verzeichnet. Und diese Präsentation aus dieser Zeit spricht ausschließlich über HMC und kein Wort über HBM bei der Volta-basierenden 3D-Stacking Technologie: http://icpp2013.ens-lyon.fr/GPUs-ICPP.pdf
Edit: Das obige Foto ist übrigens in dem PDF enthalten und zeigt HMC. Auf Seite 20 zu finden und auf Seite 23 wird es detaillierter als HMC beschrieben.

Das ist auch der Grund warum Volta nach hinten verschoben wurde und nicht weil Nvidia auf HBM2 wartet - sie haben auf das falsche Pferd gesetzt, oder wie soll es erklärbar sein, dass nun ca. 18 Monate keine neue GPU mehr kommt von Nvidia?
 
Zuletzt bearbeitet:
Sorry Tobi, aber dass du von Energieeffezienz redest und das dir dreistellige Beträge auf der Stromrechnung weh tun würden ist doch ein Witz. Und zwar ein schlechter.
Ein auf 4,7 GHZ übertakteter i5, eine übertaktete 980Ti, eine Wasserkühlung, 21 TB an Festplattenspeicher, diverse große Bildschirme und natürlich der Spruch, du kaufst dir Hardware vom Spiegeld. Wenn du dir so eine Hardware vom Spielgeld leisten kannst, dann dürfte dir ein Abschlag von 120 € nicht weh tun.

Und da redest du dann davon, man soll bewusst mit Energie umgehen? Die meisten Leute dürften selbst mit 2x 295ern und einem
9370, auf weniger Energieverbrauch kommen.

Ach und btw, hast du einen Durchlauferhitzer? Den nur durch ein moderneres Model zu ersetzen kann im Jahr mehr sparen, als ein paar Hardwarekomponeten.


@ Cruger Und dein Elefantengedächtnis ist sehr selektiv. Der Pentium 4 (und D) wurde auch deswegen kritisiert, weil er langsamer war und kaum weniger gekostet hat. Und zwar langsamer in allen Bereichen. Ein FX kann beim Preis punkten. Und wenn die Anwendung sich gut parallelisieren lässt, zieht ein FX auch einem teurerem i5 davon.
Aber selbst wenn nicht. Die Aussage wirkt, bei dem was deine Kiste jetzt schon schluckt ziemlich aufgesetzt.
 
Zuletzt bearbeitet:
Wer behauptet, Nvidia hätte die Nase vorn, muss blind sein. Und zwar auf beiden Augen. Mal davon abgesehen ist und war GCN von Anfang an ein super Wurf. Da musste AMD bisher auch nicht viel an der Basis ändern. In 28nm lohnt sich das jetzt sowieso nicht mehr. Wie isigrim schon sagte, mit 14nm sind sicherlich wieder grössere IP Sprünge zu erwarten. Es war Nvidia, die technologisch weit hinten dran waren mit ihrer veralteten low count / double clock Shader Architektur, die mit Thermi ihren negativen Höhepunkt hatte. Und Effizienzverbesserungen haben sie sich seitdem vor allem auch durch den immer stärkeren Verzicht auf Computing Performance erkauft. Das ist keine grosse Kunst. AMD hat mit Fiji vergleichbare Effizienz bei Spielen und >50% mehr Effizienz bei Computing. Hinzu kommt das modernere Design, was sich vor allem auch bei den neuen APIs bemerkbar macht. Da sollte eigentlich nicht schwer zu erraten sein, welche Architektur insgesamt die Nase bei Effizienz und Design vorne hat. Und wer es immer noch nicht mitbekommen hat, ein kleiner Tipp, es ist nicht Nvidia. ;)
 
Ich sehe Fiji also nicht als Grund sich auszuruhen, sondern als Start in eine andere Ära des Grafikkarten-Designs.

Ich stimme dir voll und ganz zu. Allerdings, wie Lisa Su vor einigen Tagen bekannt gab, steckt AMD zur Zeit einen Großteil der Investionen für Forschung und Entwicklung in die ZEN-Archtektur, so das zu befürchten ist, das war es erst mal für die nächste Zeit.
 
Das Fiji jetzt ausgewöhnlich viel effizienter als Tonga geworden ist, würde ich nicht behaupten. Die Ersparnis ist primär bei HBM und dem dadurch deutlich kleineren und stromsparenderen Interface zu suchen.

In Summe kommt Fiji ähnlich wie Maxwell raus, allerdings dank HBM, sonst wären wohl die 300 W für die Single GPU gefallen.


Bei VLIW5 hat man beim R600 in 80 nm gedacht, dass die Architektur Murks ist, der RV670 und RV770 wurden schon deutlich besser und der RV870 war dann in 40 nm das Ende. Wenn das bei GCN genauso geht, dass man von jedem neuen Fertigungsschritt deutlich profitieren kann, wäre das super. Wir hängen halt seit 3 1/2 Jahren bei 28 nm fest...
 
Und Nvidias Gaming-Effizienz basiert darauf DP Einheiten weg gelassen zu haben und ist dafür 80% ineffizienter beim Computing. Wo ist das relevant? Es ist immer ein abwägen wo die Verbesserungen zu welchem Zeitpunkt gemacht werden und welche anderen Produkte man derzeit im Sortiment hat und in den nächsten Jahren. Wenn Nvidia mit HBM auf den Markt kommt hatte AMD 2 Jahre Zeit an etwas anderem zu arbeiten während dort Probleme mit Interposer und Kühlung gelöst werden - bin ja gespannt was übrig bleibt von "echte GPUs kühlen mit Luft" wenn die Nvidia GPUs mit HBM kommen.

Arctic Island wird auch kein GCN mehr sein soweit bekannt und wird wohl sogar noch vor Pascal oder zeitgleich kommen, schließlich hat die Entwicklung wahrscheinlich sogar vor Fiji begonnen und hängt nicht von dessen Zeitplan ab, da es wohl nicht geplant war so lange auf 28nm zu bleiben und 20nm auszulassen.
 
Tonga und Fiji haben auch nur 1:16, was besser, aber auch nicht dolle ist.
 
Das ist auch der Grund warum Volta nach hinten verschoben wurde und nicht weil Nvidia auf HBM2 wartet...
Dank der bei HBM und HMC verwendeten Logic Dies bräucht man gpu-seitig "nur" den vergleichsweise simplen PHY auszutauschen. Das dürfte nVidia kaum solange aufgehalten haben. Es wird demnach noch an weiteren Stelle gehakt haben. nVidia hat mit mehr als genug Baustellen auf der Roadmap zu kämpfen. HBM und Interposer sind dabei noch die kleinsten, denn das ist Aufgabe der Zulieferer. Außerdem würde ich HMC nicht als das "falsche Pferd" bezeichnen. HMC hat genau wie HBM seine Vor- und Nachteile. Der gesamte Ansatz verfolgt eine leicht abweichende Ausrichtung, obwohl es natürlich viele Überschneidungen gibt. Ich könnte mir sogar vorstellen, dass HMC künftig für das eine oder andere AMD Produkt von Interesse sein wird.
 
Aber doppelt so viel und damit natürlich auch nicht so effizient wen sie nicht gebraucht werden. Zumindest gibt es brauchbare Profi Karten wie die FirePro W7100 mit Tonga. Mit Maxwell wird es die nie geben.

--- Update ---

Dank der bei HBM und HMC verwendeten Logic Dies bräucht man gpu-seitig "nur" den vergleichsweise simplen PHY auszutauschen.
So ein Unsinn. Dafür braucht es einen völlig anderen Speichercontroller. Ebenso wie für DDR2, DDR3, DDR4 oder GDDR5. Das gesamte Speichersubsystem funktioniert völlig anders und ebenso das ansprechen der Rows und Columns in den Speicherbänken. HMC und HBM haben völlig verschiedene Eigenschaften. Die PHYs sind wohl das einzige das nicht ausgetauscht werden muss^^ - die funktionieren sogar bei Gbit-LAN-Anschlüßen, da es nichts anderes als neutrale Kontakte sind die eine bestimmte Signal-Verstärkung benötigen für das Routing.

Hier etwas Background zu PHYs: https://www.semiwiki.com/forum/cont...phone-media-tablet-ultrabook-lower-power.html

--- Update ---

Außerdem würde ich HMC nicht als das "falsche Pferd" bezeichnen.
Warum nicht? Es ist nicht fertig geworden und Pascal muss auf HBM setzen um schwer verspätet überhaupt noch etwas auf den Markt bringen zu können.
Volta musste nach hinten verlegt werden und man wird das sicherlich weiter entwickeln. Doch einen Produktlaunch um 2-3 Jahre zu verschieben bringt seine eigenen Probleme mit sich, wie das ja Intel schon bei Larabee erfahren durfte. Ob die Architektur dann noch Konkurrenzfähig ist ist fraglich und muss somit eventuell völlig überarbeitet werden. Mit Sicherheit müssen Features zugefügt werden die zuvor nicht geplant waren, wenn man nicht völlig veraltet da stehen will. Seien das neue VESA-Standards oder andere technische Neuerungen. Es geht nicht darum ob HMC oder HBM besser ist, sondern darum worauf die GPU designend wurde und zu welchem Zeitpunkt dieses Design in den Markt kommen sollte.
 
Zuletzt bearbeitet:
So ein Unsinn. Dafür braucht es einen völlig anderen Speichercontroller.
1:0 für dich. Trotzdem sollte der Logic Die bei HBM die Entwicklung des IMCs gegenüber GDDR5-RAM vereinfachen. An dieser Stelle frage ich mich, ob nVidia diesen überhaupt selbst entwickelt oder IP Cores von Altera und anderen Anbietern einkauft. Im Grunde wäre dies eine Ressourcenverschwendung; insbesondere da man HSA von AMD nichts entgegen zu setzen hat und so keinen zusätzlichen Nutzen durch eine Eigenentwicklung generieren könnte.
Es ist nicht fertig geworden und Pascal muss auf HBM setzen um schwer verspätet...
Intel möchte im 3. oder 4. Quartal Produkte mit seinem HMC 2.0 Derivat bringen und gilt gemeinhin als behäbig.
 
Zuletzt bearbeitet:
Nur hat Intel diese HMC 2.0 Derivate exklusiv entwickelt und diese sind nicht zugänglich für andere im HMC-Konsortium wo sie nicht Mitglied sind. Daher ist es schwer zu sagen ob andere da schneller am Markt gewesen wären. Begonnen haben sie 2011 damit und ob dies dieses Jahr kommt steht eher in den Sternen. Welches Produkt meinst du denn das im 3. oder 4. Quartal kommen soll? Knights Landing? Es wird eben Intels MCDRAM und nicht Standard-HMC.
http://www.eetimes.com/author.asp?section_id=36&doc_id=1287236
The actual interface with an Intel chip is a closely held interface that Intel is not going to throw open to just anyone and I think that might be part of the holdup. But HMC and ARM is a combination of acronyms that I hear a lot and that just paints Intel into a horrible corner, especially if and when HMC does take off, if Intel is somehow not part of the party. They’re already fighting enough battles right now. I don’t think they want to be handicapped further in servers, so while we haven’t heard a lot about Intel [and HMC], I don’t think there’s any indication that they’re not going to widely support it.

Hier wird schon nur noch von DDR4 gesprochen und kein Wort mehr über HMC auf dem Knights Landing:
http://www.eweek.com/servers/intels-upcoming-xeon-phi-will-include-384gb-of-ddr4-memory.html

Hier wird scheinbar ein Hybrid Modell beschrieben:
http://www.vrworld.com/2015/03/27/i...-hpc-with-knights-landing-xeon-phi-processor/
Talking about memory, the chip vendor has announced that Knights Landing would feature eight 2GB stacks of memory, totaling up to 16GB. The chip is manufactured at Micron, and looks to be a variant of the manufacturer’s Hybrid Memory Cube, which involves stacking memory and using an embedded logic chip to deliver higher bandwidth at a lower power. Micron has mentioned that its HMC modules will be able to transfer data 15 times faster than a standard DDR3 module, while utilizing 70% less energy. Along with on-chip memory, Knights Landing will come with six memory channels that can connect a total of 384GB DDR4 memory.
Also auch nichts anderes als der ESRAM der derzeit für die iGPUs benutzt wird der Iris Pro Serie als LLC.
 
Zuletzt bearbeitet:
Also auch nichts anderes als der ESRAM der derzeit für die iGPUs benutzt wird der Iris Pro Serie als LLC.
Ich weiß nicht ob diese Information noch Gültigkeit hat, aber Rajeeb Hazra hat wohl einst auf der ISC 2013 ein programmierbares Speichermanagment für Knights Landing in Aussicht gestellt. Man sollte zwischen verschiedenen Betriebsmodi des Near Memory im laufenden Betrieb wechseln können. Ob diese Vision planmäßig mit Knights Landing verwirklicht wird, kann ich nicht sagen. Seit dem ISC 2013 liest man darüber nichts mehr. Um den Mischbetrieb mit Haswell-EX (bei ausgewählten Xeon Phi mit Ausnahme von TSX) ist es ebenfalls vergleichsweise still geworden.
 
Mit der Fury sollte sich nun auch das Thema erledigt haben, dass Nvidia besser bei Performance/Watt ist.

Fury X: Idle 5W, Gaming 220W
GTX 980 Ti: Idle 10W, Gaming 233W
http://crazyfunnyimages.com/wp-content/uploads/funny_images/funny-gif-Google-results-vaccines-autism_funny_photo_a4950z.gif

Entsprechend wissen wir natürlich, welches Resultat von allen das einzig Legitime sein kann. :P
http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-r9-fury-x/launch-analyse-amd-radeon-r9-fury-x-seite-2

Wer behauptet, Nvidia hätte die Nase vorn, muss blind sein. Und zwar auf beiden Augen. Mal davon abgesehen ist und war GCN von Anfang an ein super Wurf. Da musste AMD bisher auch nicht viel an der Basis ändern.
Dann mach beide Augen auf.

In 28nm lohnt sich das jetzt sowieso nicht mehr.
Du meinst man kann es sich nicht leisten, nicht das es sich nicht lohnt.

Hinzu kommt das modernere Design, was sich vor allem auch bei den neuen APIs bemerkbar macht. Da sollte eigentlich nicht schwer zu erraten sein, welche Architektur insgesamt die Nase bei Effizienz und Design vorne hat.
Was hat Fiji, was sich bei den neuen APIs bemerkbar machen wird?
Ich nenne schon einmal Binding-Tier 3, um die Arbeit zu erleichtern, noch etwas?
 
Zurück
Oben Unten