Warum ist Nvidias Performance/Watt besser ?

Das was ich gepostet habe, bezieht sich generell auf die Skalierung beim Übertakten, das Memory-OC war eigentlich nur ein Hinweis. Alleine 50 MHz beim Speicher bringen knapp über 2% beim 3D Mark, übertaktet man Speicher und Chip bekommt man wie oben gezeigt eine ordentliche Skalierung.

Irgendwie glaub ich dir nicht, dass du der Erste bist, der einfach so mal den Speicher (wirklich) übertaktet. Überall liest man in Tests, dass der Speichertakt fix ist und nicht geändert werden kann. OC-Tools zeigen zwar (erfolgreiche) Übertaktungen an, der Speicher läuft trotzdem mit 500 Mhz. Kannst du verraten, wie du es geschafft haben sollst?

Gruß
 
Er ist nicht der erste... gibt noch deutlich mehr Leute.
Auch haben Reviewer, die mit den erhöhten Werten gebencht haben, überall mehr Leistung festgestellt. Daher kam ja kurzzeitig das Gerücht, dass, wenn nicht der Speicher, dann der PCI-E übertaktet wird ( im Zusammenhang, weil dieser was wärmer wurde ) ...

Kurzum, das Übertakten ist unter Umständen möglich. Mal mehr mal weniger.
 
@Locuza

Im Moment fehlt mir einfach die Zeit (und Lust), deinen Unsinn erneut zu durchwühlen. Bringt eh nichts, da du scheinbar völlig verbohrt den Nvidia Unsinn auch noch schönredest, auf konkrete Fragen nur ausweichst und nie zugeben würdest, wenn Nvidia technologisch hintendran ist. Und das sind sie seit nunmehr 7 Jahren und dem RV770 von AMD.

Halten wir also die Fakten nochmal fest. GCN unterstützt sämtliche DirectX 12 Features bis auf ROVs. ROVs sind im Moment allerdings völlig belanglos, da es sowieso so schnell nicht genutzt werden wird und nur begrenzte Anwendungsfälle gibt. Ist also in keinster Weise ein Argument für Nvidia, da es im wesentlichen um OIT geht, worüber auch Johan Andersson spricht und was AMD unterstützt. ROVs sind mMn einfach das unbedeutendste neue Feature, da es direkt visuell nichts beitragen kann und Performance-/Effizienzgewinne erst noch bewiesen werden müssen. Im Gegensatz zu zB Asyn Shaders habe ich jedenfalls noch keine konkreten Zahlen zu ROVs gesehen. FL12.1 ist im Moment daher ziemliches Blendwerk. Nvidia ist deutlich im Nachteil in den kommenden Monaten aufgrund von fehlendem RB Tier 3 und Async Shaders. Es gibt auch kein teilweise bindless. Entweder ist die Architektur bindless oder nicht. AMDs Architektur ist bindless, Nvidias Architektur ist es nicht.

Man sieht, dass die Fury X einzig aufgrund des höheren PT sich mehr genehmigen kann. Schraube das PT runter und die Effizienz ist genauso wie bei Nvidia oder gar besser. Genau hier wird auch die Fury Nano ansetzen. Sämtliche Messwerte sind im Moment aber anscheinend sowieso fraglich, da Nvidia bei der Bildqualität schummeln soll, was ~10% Performance bringt. Das wirft erneut ein sehr schlechtes Licht auf Nividia.

Alles was bisher zu Project Cars bekannt ist, es verwendet CPU und GPU PhysX. Irgendwelche dubiosen und nicht nachvollziehbaren Forenbeiträge helfen auch nicht, um mehr Erkenntnisse zu gewinnen. Aber das Thema war eh längst ad acta gelegt. Es ging nur darum, dass du begreifst, welche negativen Auswirkungen Nvidias Spielchen auf uns User immer wieder haben und dass sie dafür weiterhin scharf kritisiert werden. Das hast du hoffentlich getan. Wenn y33H@ für dich eine Quelle sein soll, bitteschön. Für mich ist er das nicht, da er unzählige Male unter Beweis gestellt hat, wie unglaubwürdig, unsachlich und voreingenommen er ist.

Die Adaptive Sync Spezifikation gab es schon bevor Nvidia G-Sync vorgestellt hat. Also nein, G-Sync war nicht die erste Lösung für dynamischen Refresh Raten.
 
Halten wir also die Fakten nochmal fest. GCN unterstützt sämtliche DirectX 12 Features bis auf ROVs.
Schon mal kein Fakt, da CR laut AMD fehlt. Den Gegenbeweis müsstest du schon liefern.

Man sieht, dass die Fury X einzig aufgrund des höheren PT sich mehr genehmigen kann. Schraube das PT runter und die Effizienz ist genauso wie bei Nvidia oder gar besser.
Im Auslieferungszustand ist die Effizienz nun mal schlechter.

Sämtliche Messwerte sind im Moment aber anscheinend sowieso fraglich, da Nvidia bei der Bildqualität schummeln soll, was ~10% Performance bringt. Das wirft erneut ein sehr schlechtes Licht auf Nividia.
Sie sind "anscheinend fraglich"? Du glaubst also diesen Bullshit selbst nicht? Sehr gut. Den Gegenbeweis müsstest du schon liefern.

Alles was bisher zu Project Cars bekannt ist, es verwendet CPU und GPU PhysX.
Erneut kein Fakt, sondern falsch. Den Gegenbeweis müsstest du schon liefern.

Wenn y33H@ für dich eine Quelle sein soll, bitteschön. Für mich ist er das nicht, da er unzählige Male unter Beweis gestellt hat, wie unglaubwürdig, unsachlich und voreingenommen er ist.
Ich bin unglaubwürdig für dich - leg du doch erst mal Beweise für all deinen Quatsch vor. Was du seit Jahren nicht machst, sondern herum stänkerst und weswegen du unglaubwürdig und in vielen Foren gebannt bist.
 
Ich hab jetzt mal an Herrn Sellers geschrieben. Ob er antwortet bleibt abzuwarten, aber langsam reicht´s einfach mit diesen ständigen Behauptungen, die als Fakten dargestellt werden.

@gruffi Ich bin ja sehr dafür AMD gegen alle Verleumdungen etc. zu verteidigen , aber so funktioniert eine Diskussion nicht. "Technologisch hintendran"....lässt sich so nicht darstellen. "technologisch" ist schon alleine viel zu komplex, weil es alle Bereiche der GPUs abdeckt. Von der Ip zur Fertigung zur Software etc. In bestimmten Bereichen sind sie voraus, in bestimmten hinterher. Einfach zu sagen sie sind hintendran ist eine einseitige Behauptung.
OIT ist nicht ROV. OIT lässt sich aber mit ROV beschleunigen.
Das mit Project Cars GPU Physx würde mich jetzt auch mal interessieren, wo der Beleg ist. Ich habe auch da bisher nur Behauptungen gesehen. Ich denke schon, dass SlightlyMad viel zugunsten von Nvidia gedreht hat, aber dafür brauchen sie kein GPU-Physx. Da reicht es, die Pipeline mit DrawCalls vollzustopfen. Das ist bei DX11 schlicht kontraproduktiv und spricht nicht für die Fähigkeiten der Entwickler.


Ich kann noch eine Geschichte aus der Vergangenheit zu Nvidias "Praktiken" erzählen:
Ich war einer der Alphatester zu Octane (damals hieß das Ding noch anders). Als Terrence angefangen hat, das Ganze auf CUDA zu programmieren, hat ihm Nvidia ohne zu Zucken und ohne eine Forderung vier Quadros geschickt. Einfach so. Entsprechend hat er natürlich weiterhin eng mit denen kooperiert, woraus ich ihm keinen Vorwurf machen würde. Für eine Firma geht es nicht um Neutralität, sondern um Gewinn. Es gab auch handfeste Vorteile, die für CUDA und gegen OpenCL gesprochen haben (Atomics waren zu Beginn bei OpenCL ein Problem z.B.)

Heute gehört Octane Render zu OTOY. Falls OTOY jemandem noch was sagt...das ist die Firma, mit der AMD 2009 gemeinsam eine Fusion-Render-Cloud aufbauen wollte (Lustig, dass sie schon damals die Namen der AMD-GPUs nicht hinbekommen haben und von Cypruss sprechen...). Offenbar hat sich dann allerdings statt AMD eher Nvidia bereiterklärt die entsprechenden Systeme zu liefern. (Siehe hier ab Minute 8 etwa) Cleverer Schachzug, wohl auch weil das gut in Nvidias Strategie gepasst hat, die Fermis primär als HPC-Beschleuniger zu vermarkten. Inzwischen kooperiert OTOY übrigens mit allen Größen der Branche und setzt in ihren Servern auf Nvidia GPUs.

Das Gute kommt aber zum Schluss: Octane v3 unterstützt nun wohl auch OpenCL. Juhu! Die OTOY-Server dürften aber auf absehbare Zeit weiterhin mit Nvidia-GPUs betrieben werden. AMD hat seine Chance damals vertan, Nvidia hat sie genutzt. So einfach ist das.

Man muss jemandem wie Dade (David Buccarelli) von LuxRender höchsten Respekt zollen, dass er bei OpenCL geblieben ist. Und man sieht heute bei Lux eben, was mit AMDs GPUs möglich ist und vielleicht in anderen Fällen möglich gewesen wäre. Nur hat Lux alleine AMD keine finanziellen Vorteile gebracht. OTOY dagegen hat Nvidia massive finanzielle Vorteile gebracht, die wiederum investiert wurden, um diesen Bereich zu stärken.

AMDs Cycles hatte aufgrund des "Megakernels" ein Problem mit AMDs Compiler (bzw. umgekehrt). AMD hat lange gebraucht, um eigene Leute zu schicken und diesem OS-Projekt zu helfen. Zu lange für mich. Langsam scheint es zu funktionieren. Man ist da offensichtlich ein wenig aufgewacht.

HSA ist auch so eine Baustelle, wo man sich schlicht ein Prestige-Projekt suchen müsste und da massiv investieren sollte. Macht man aber offensichtlich nicht. Man hofft, dass sich das von selbst irgendwie ergibt. Aber so funktioniert diese Industrie nicht. Ich muss Impulse setzen, das können kleine Impulse sein (wie bei Terrence) oder große (wie bei OTOY).

Was ich sagen will: AMD hat in der Vergangenheit manchmal sehr schlechte Entscheidungen getroffen und macht es teils noch heute (Michael Larabel keine Samples zu schicken z.B.)
Nvidia weiß dagegen, wie man sich vermarktet und hat ein klareres Konzept, was die Investitionen in die Zukunft angeht. Da kann AMD einiges lernen (hoffentlich nicht zu viel, sonst haben wir neben dem proprietären Nvidia-Müll bald auch noch proprietären AMD-Müll).
 
Interessant.
Ich habe kürzlich in einem Blog gelesen, dass Nvidia bei OpenCL auf der Version 1.2 stehen geblieben ist. Daher ist es auch kein Wunder, wenn auf Nvidia GPUs CUDA schneller ist.
OpenCL 2.0 enthält übrigens Shared Virtual Memory (SVM) in grober Auflösung obligatorisch (coarse grained) und in feiner Auflösung optional (fine grained). Die Synchronisation des Speichers muss dann nicht mehr der Entwickler bewerkstelligen, sondern sie wird zu bestimmten Zeitpunkten vom Treiber automatisch vorgenommen, der auch selbständig erkennen kann, welche Bereiche überhaupt synchronisiert werden müssen, und unter in der Regel viel schneller ist.
Mit SVM lässt sich sowohl der Speicher verschiedener GPUs synchronisieren als auch Speicher von CPU und GPU. Bei APUs kann der OpenCL Treiber erkennen, dass gar keine Synchronisation vonnöten ist - ein Vorteil, den Nvidia GPUs natürlich nicht ausspielen könnten, selbst wenn sie OpenCL 2.0 unterstützten.
AMD muss Entwicklern rechtzeitig lauffähige Systeme bereitstellen, wie Nvidia es vormacht.
MfG
 
Sämtliche Messwerte sind im Moment aber anscheinend sowieso fraglich, da Nvidia bei der Bildqualität schummeln soll, was ~10% Performance bringt. Das wirft erneut ein sehr schlechtes Licht auf Nividia.
jetzt erzähl aber bitte nicht, dass das deine schlussfolgerung aus dem youtube-video-vergleich eines einzelnen posters im overclockers-forum ist.
 
"Technologisch hintendran"....lässt sich so nicht darstellen. "technologisch" ist schon alleine viel zu komplex, weil es alle Bereiche der GPUs abdeckt. Von der Ip zur Fertigung zur Software etc. In bestimmten Bereichen sind sie voraus, in bestimmten hinterher. Einfach zu sagen sie sind hintendran ist eine einseitige Behauptung.

So ist es. Eine Bewertung hängt immer vom persönlichen Fokus ab. Das Problem sind vielmehr die Meinungsmacher, die sich zum Sprecher der Massen ernennen und solche Behauptungen in die Welt setzen. Wenn dieser Unsinn öfter wiederholt wird, bleibt irgendwann etwas hängen.

--- Update ---

HSA ist auch so eine Baustelle, wo man sich schlicht ein Prestige-Projekt suchen müsste und da massiv investieren sollte. Macht man aber offensichtlich nicht.

Denen fehlen schlicht die Ressourcen. AMD hat viel zu viele Baustellen und erledigt alles nur rudimentär. So kann man alles gut, aber für die Spitze reicht es nie. Die letzten 10% kosten häufig 50% mehr Aufwand. Da wirkt vieles dann eben etwas halbherzig.
 
Im Moment fehlt mir einfach die Zeit (und Lust), deinen Unsinn erneut zu durchwühlen. Bringt eh nichts, da du scheinbar völlig verbohrt den Nvidia Unsinn auch noch schönredest, auf konkrete Fragen nur ausweichst und nie zugeben würdest, wenn Nvidia technologisch hintendran ist. Und das sind sie seit nunmehr 7 Jahren und dem RV770 von AMD.
Du meinst auf den Unsinn, der meistens mit Links und Zitaten untermauert wurde, wo du wie für gewöhnlich nichts hast?
Ich weiche auf konkrete Fragen aus? Ich hoffe nicht so extrem häufig wie du.
Du kannst mich gerne noch einmal fragen und versuchen fest zunageln, mit deinen vermutlich leeren Händen wird das leider nicht so gut funktionieren.

Nvidia ist seit 7 Jahren technisch hinter AMD? Beeindruckend, wie einfach und absolut man sich hier ein Urteil machen kann.
Ich will gar nicht wissen, warum z.B. Fermis skalierbares und Geometrie starkes Front-End hier nicht dazu gehört, wo AMD selbst jetzt nach 6 Jahren nicht aufholen konnte.
Der read/write L2-Cache zählt vermutlich ebenso wenig, wie der ECC-Speicherschutz und die Compute-Leistung gegenüber den alten VLIW GPUs von AMD.
Ganz davon ab, dass Fermi die einzige Architektur von allen IHVs ist, welche den Anforderungen von DX12 genügt.

Last but not least, habe ich Nvidia technische Nachteile zugesprochen und umgekehrt AMD technische Vorteile.
Beim unterem Line-Up 750Ti vs. 260X habe ich auch gesagt, dass Maxwell Gen 1 das kleine hässliche Entlein ist, wem FL12.0 und async compute support fehlt.
Ich wiederhole mich hier auch gerne, AMD ist der einzige IHV welcher die FL12.0 Basis bereitstellt und dem wir eine moderne Basis zu verdanken habe.
An der Stelle habe ich auch gesagt, man kann nur froh sein, dass nicht Kepler in die Konsolen gewandert ist, sondern GCN Gen 2.

Halten wir also die Fakten nochmal fest. GCN unterstützt sämtliche DirectX 12 Features bis auf ROVs. ROVs sind im Moment allerdings völlig belanglos, da es sowieso so schnell nicht genutzt werden wird und nur begrenzte Anwendungsfälle gibt.
Ich dachte für Fakten braucht es eindeutige Beweise oder immerhin starke Anhaltspunkte.
Sachen die dir chronisch fehlen.

Ist also in keinster Weise ein Argument für Nvidia, da es im wesentlichen um OIT geht, worüber auch Johan Andersson spricht und was AMD unterstützt. ROVs sind mMn einfach das unbedeutendste neue Feature, da es direkt visuell nichts beitragen kann und Performance-/Effizienzgewinne erst noch bewiesen werden müssen.
OIT und die volle Kontrolle über das blending.
Deine Meinung ist nett, aber wenn der Technical Director bei der Frostbite Engine sich gerne so etwas wünscht, zweifle ich stark daran, dass es das unbedeutendste neue Features ist.
Laut sebbi gehört es zu den Features, welches am einfachsten in bestehende Engines implementiert werden kann(Wir lesen auch erneut die schöne Passage mit GCN und den Konsolen):
DX 12.1 = ROV + conservative rasterization (+ volume tiled resources). I didn't mention these features separately as these features define DX 12.1.

These three are very nice features indeed and allow completely new kinds of approaches to some graphics problems. The problem is that these new approaches are very different from the existing ones, and need big changes to engine architecture. Both next gen consoles are GCN based. Rendering pipelines will be designed around GCN feature set for the following years. Games are not yet even exploiting the GCN feature set fully. Features missing compared to GCN (such as tier 3 resource binding) are likely going to be more relevant in practice than extra (future looking) features.

Hopefully some small indie developer releases a stunning voxel based (PC only) game that requires DX 12.1 (all the new DX 12.1 features are perfect for voxel rendering). This kind of killer app would make DX 12.1 much more relevant. Big studios would never release a game targeting less than 5% of the PC market (and skip the consoles completely).

The only DX 12.1 feature that is easy to plug into most existing engines is ROV. It can used to implement efficient OIT. However ROV is highly useful for many other purposes (especially with CR). ROV is currently supported by Intel Haswell and Broadwell and NVIDIA Maxwell 2. It has the broadest support of all DX 12.1 mandatory features. I expect to see games supporting this feature, even if the rest of the DX 12.1 feature set deems to be too forward looking for cross platform games.
https://forum.beyond3d.com/posts/1851464/

Intel hat es bei ihrem Projekt "Streaming G-Buffer Compression for Multi-Sample Anti-Aliasing" verwendet (Seite 4-5):
https://software.intel.com/sites/default/files/managed/50/32/gbufcomp.pdf

FL12.1 ist im Moment daher ziemliches Blendwerk. Nvidia ist deutlich im Nachteil in den kommenden Monaten aufgrund von fehlendem RB Tier 3 und Async Shaders. Es gibt auch kein teilweise bindless. Entweder ist die Architektur bindless oder nicht. AMDs Architektur ist bindless, Nvidias Architektur ist es nicht.
Maxwell Gen 2 unterstützt allerdings async compute, so gerne du es dir auch wünscht, dass sie es nicht tun.
RB3 ist aber ein echter Vorteil, gestützt dank Konsolen.
Sich den stencil wert von Pixelshadern geben zu lassen, soll auch eine nette Funktion sein, welche Nvidia scheinbar nicht bietet.

Und natürlich gibt es teilweise bindless. Tier 1 besteht noch vollkommen aus festen Binding-Slots für alle Ressourcen, Tier 2 dagegen ist bindless bei den shader-resources und Tier 3 eben bei allen.
Natürlich aus DX12 Abstraktionssicht, wo das Limit der Architektur in Wirklichkeit besteht, ist ein anderes Thema.

Man sieht, dass die Fury X einzig aufgrund des höheren PT sich mehr genehmigen kann. Schraube das PT runter und die Effizienz ist genauso wie bei Nvidia oder gar besser. Genau hier wird auch die Fury Nano ansetzen. Sämtliche Messwerte sind im Moment aber anscheinend sowieso fraglich, da Nvidia bei der Bildqualität schummeln soll, was ~10% Performance bringt. Das wirft erneut ein sehr schlechtes Licht auf Nividia.
Schön das du meinen Beitrag so fleißig gelesen hast.
Sicherlich ist dir auch nicht die Stelle entgangen, wo das herabsenken des PTs sehr negative Auswirkungen auf die Min-FPS hat und damit praktisch nicht zu gebrauchen ist?
Dagegen es bei Nvidia funktionieren soll, also hat AMD an der Stelle ein Problem und ist weiterhin ineffizienter.

Und Nvidias (noch nicht faktisch belegte) Schummelei gilt vermutlich spieleübergreifend und kostet dann vermutlich auch im Schnitt 10% Performance oder gilt das nur für BF4, welches ich glaube Toms Hardware nicht getestet hat?
Natürlich wäre es auch interessant zu wissen woher ~10% kommen, warum nicht 5 oder 50%?

Alles was bisher zu Project Cars bekannt ist, es verwendet CPU und GPU PhysX. Irgendwelche dubiosen und nicht nachvollziehbaren Forenbeiträge helfen auch nicht, um mehr Erkenntnisse zu gewinnen
Manche Menschen scheinen einfach lieber ertrinken zu wollen.
Ein Slightly-Mad-Mitarbeiter sagt, sie verwenden kein GPU-PhysX, Nvidia sagt es wird keins verwendet, User-Tests, PCGH und Golem bescheinigen keine Verwendung von GPU-PhysX, die man aufgrund unterschiedlicher Performance und/oder Auslastung gesehen hätte.
Nope, dass zählt alles nicht.

Aber das Thema war eh längst ad acta gelegt. Es ging nur darum, dass du begreifst, welche negativen Auswirkungen Nvidias Spielchen auf uns User immer wieder haben und dass sie dafür weiterhin scharf kritisiert werden. Das hast du hoffentlich getan.
Ich habe von Anfang an gesagt, du kannst gerne HairWorks als Beispiel nehmen, aber nicht Project Cars, weil es außer CPU-PhysX nichts von Nvidia direkt verwendet.
Ich kann einem Spiel oder Nvidia nur dann etwas vorwerfen, wenn ich valide Anhaltspunkte dafür habe, die habe ich jedenfalls bei Project Cars im Falle von Nvidia nicht gefunden.
Bei HairWorks spielen dagegen schon, Faktor 64 bei der Tessellation bringt keinen optischen Vorteil, verbrennt unnütz Ressourcen.
Dazu ist die Lösung allgemein technisch schlecht, OIT wird nicht geboten, ein Master/Slave System für die Haarsträhnen ebenso wenig, dazu werden Geometry-Shader + Tessellation verwendet, was alles suboptimale Performance ergibt und die gesamte Shader-Pipeline verwendet.

Bei HairWorks kann ich also gerne ein Check hinsetzen, bei anderen Dingen aber nicht zweifelsfrei.
Gott behüte wenn etwas von Nvidia verwendet wird und es Probleme gibt, dann weiß schon eine kleine Armee eindeutig Bescheid, wer oder was Schuld ist.

Wenn y33H@ für dich eine Quelle sein soll, bitteschön. Für mich ist er das nicht, da er unzählige Male unter Beweis gestellt hat, wie unglaubwürdig, unsachlich und voreingenommen er ist.
:D

Ich hoffe in deinem Unterhalt gibt es einen Spiegel.

Die Adaptive Sync Spezifikation gab es schon bevor Nvidia G-Sync vorgestellt hat. Also nein, G-Sync war nicht die erste Lösung für dynamischen Refresh Raten.
Praktisch schon, denn wie ich gleich am Anfang gesagt habe, gab es die Spec praktisch zuvor bei eDP, wo es aber keiner verwendet hat.
Und erst nach G-Sync wurde der Spec-Anteil auch bei DP verankert.
Insofern war und ist G-Sync die erste Lösung, welche bei Monitoren einen dynamischen Refresh geboten hat.
 
Zuletzt bearbeitet:
@Locuza

Lass es einfach gut sein. Dein permanentes Zerpflücken von Beiträgen ist so nervend wie sinnfrei. Vor allem dann, wenn du alles ignorierst, was dir nicht gefällt, und Sachen einfach als Fakt hinstellst, die gar keine sind. Laut Tests gibt es zB sehr wohl einen Unterschied in Project Cars zwischen CPU- und GPU-PhysX. Es ist einfach nur ignorant zu behaupten, Tests hätten bewiesen, dass kein GPU-PhysX verwendet werden würde. Das haben sie nämlich keineswegs. Mit Links untermauerst du auch nichts. Wenn du zB behauptest, Nvidia würde Async Shaders unterstützen, dann ist das einfach nur Wunschdenken deinerseits, ohne jegliche handfeste Quelle. Du scheinst auch gar nicht zu verstehen, was andere sagen. ZB Johan Andersson sprach von OIT, nicht von ROVs. Und nein, deine Behauptung zu G-Sync ist immer noch falsch. Die Adaptive Sync Spezifikation gab es vor G-Sync. Wann diese in den VESA Standard aufgenommen wurde, ist irrelevant. Schliesslich ist G-Sync bis heute kein Bestandteil des VESA Standards. An meinen Aussagen ändert sich daher nichts. Solange du sie nicht widerlegen kannst, bleiben sie bestehen.
 
Die Adaptive Sync Spezifikation gab es vor G-Sync.
Aber lediglich für eDP, weil die VESA dabei Stromsparen im Sinn hatte und nicht die Bekämpfung von Tearing. Variable Refreshrates für externe Monitore (mit DP-Anschluss) zu diesem Zweck verfügbar zu machen, ist tatsächlich ein Verdienst von nVidia; obgleich kein verdienstvoller, weil G-Sync unter Verschluss gehalten wurde und noch immer wird. Insofern können wir dankbar sein, dass die VESA rasch nachgezogen hat. AMD hat mit seinem Logo-Programm namens FreeSync sicher wesentlich dazu beigetragen den Prozess bei der VESA zu beschleunigen. nVidia hat die Lücke jedoch als Erster erkannt und zu nutzen gewusst. Das lässt sich leider nicht bestreiten.
 
@Locuza

Lass es einfach gut sein. Dein permanentes Zerpflücken von Beiträgen ist so nervend wie sinnfrei. Vor allem dann, wenn du alles ignorierst, was dir nicht gefällt, und Sachen einfach als Fakt hinstellst, die gar keine sind. Laut Tests gibt es zB sehr wohl einen Unterschied in Project Cars zwischen CPU- und GPU-PhysX. Es ist einfach nur ignorant zu behaupten, Tests hätten bewiesen, dass kein GPU-PhysX verwendet werden würde. Das haben sie nämlich keineswegs. Mit Links untermauerst du auch nichts. Wenn du zB behauptest, Nvidia würde Async Shaders unterstützen, dann ist das einfach nur Wunschdenken deinerseits, ohne jegliche handfeste Quelle. Du scheinst auch gar nicht zu verstehen, was andere sagen. ZB Johan Andersson sprach von OIT, nicht von ROVs. Und nein, deine Behauptung zu G-Sync ist immer noch falsch. Die Adaptive Sync Spezifikation gab es vor G-Sync. Wann diese in den VESA Standard aufgenommen wurde, ist irrelevant. Schliesslich ist G-Sync bis heute kein Bestandteil des VESA Standards. An meinen Aussagen ändert sich daher nichts. Solange du sie nicht widerlegen kannst, bleiben sie bestehen.
Zeig doch wenigstens einmal etwas Anstand und Würde.
Es ist einfach grauenvoll deine Ignoranz immer wieder aufs neuste erleben zu müssen und dann noch Vorwürfe zu lesen, die nicht zutreffen, außer auf dich selber.

Ich habe dir zu Project Cars zwei offizielle Aussagen, ein (zwei) journalistische Befunde und ein Haufen User-Tests verlinkt.
Du hast an der Stelle wenig bis nichts geliefert.
Sehr wahrscheinlich nur Verschwörungstheorien und falsche Zahlen von ebenso Usern.
Warum sie falsch sind, weil ich mich lieber an seriöse Anhaltspunkte orientiere und das sind Publikationen, wo ich eher davon ausgehen kann das erfahrene Leute testen und das dabei noch Aussagen vom Entwickler und Nvidia fielen, dass GPU-PhysX nicht eingesetzt wird.

Du wirfst mir vor ich habe keine handfesten Fakten für den Async Shader Support von Nvidia geliefert, weil der Anandtech Artikel ohne Überraschung nicht legit ist, aber selber hast du natürlich nichts auf der Hand, was den fehlenden Support von Async Shaders beweist, verkaufst es aber ebenso fleißig, wie du mir vorwirfst, ich mache es.

Und bei Johan Andersson bist du derjenige der nicht versteht, was andere sagen:
Chris: Exciting, okay cool. Obviously you have a direct line to these hardware vendors. What do you want to see in the next generation of GPUs that’ll make your job easier?

Johan: That's a fun question. We have a pretty long list of all the stuff we typically go through and then talk to them with, but one very concrete thing we’d like to see, and actually Intel has already done this on their hardware, they call it PixelSync, which is their method of synchronizing the graphics pipeline in a very efficient way on a per-pixel basis.You can do a lot of cool techniques with it such as order-independent transparency for hair rendering or for foliage rendering. And they can do programmable blending where you want to have full control over the blending instead of using the fixed-function units in the GPU. There’s a lot of cool components that can be enabled by such a programability primitive there and I would like to see AMD and Nvidia implement something similar to that as well.
PixelSync == ROV

Die Behauptung zu G-Sync ist nicht falsch. Es ist nämlich praktisch irrelevant seit wann die Spec existiert, sondern wann eine Lösung wirklich realisiert wurde.
Und G-Sync kam als erster auf den Markt, welcher Produkte mit adaptive refresh angeboten hat.
Davor hat es niemand umgesetzt, davor war es kein Thema, davor konnte es niemand kaufen.

Und allgemein spare ich mir in Zukunft den Aufwand dir irgendetwas beweisen zu wollen, habe ich die letzten Seiten getan, dass alberne Resultat sehe ich entsprechend.
 
Zuletzt bearbeitet:
Laut Tests gibt es zB sehr wohl einen Unterschied in Project Cars zwischen CPU- und GPU-PhysX.
Du nennst den Quatsch bei Reddit "Tests"? Ich nicht.

Es ist einfach nur ignorant zu behaupten, Tests hätten bewiesen, dass kein GPU-PhysX verwendet werden würde. Das haben sie nämlich keineswegs. Mit Links untermauerst du auch nichts.
Hier hast du Links:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10620545&postcount=1930
http://extreme.pcgameshardware.de/n...test-geforce-top-radeon-flop.html#post7370903
 
Hi

also Zitat:
"Praktisch schon, denn wie ich gleich am Anfang gesagt habe, gab es die Spec praktisch zuvor bei eDP, wo es aber keiner verwendet hat.
Und erst nach G-Sync wurde der Spec-Anteil auch bei DP verankert.
Insofern war und ist G-Sync die erste Lösung, welche bei Monitoren einen dynamischen Refresh geboten hat. "

das ist einfach falsch da es nur die Nutzung einer schon bestehenden Laptop Technologie war und ist, die "künstlich" aufgebaut wurde und gar nicht zu dem Passt was hier "andichtet" wird.
Es gab schon weit vor G Sync die Withe Paper die das beinhalteten ....
Auch hier gilt nicht alles glauben was man irgendwo ließt.

NV hat es geschaft ihr Marke so zu positionieren wie Intel, egal was sie tun es gibt immer einen Grund und das "vertauen" es zu kaufen egal was die Konkurenz macht und kann. Sieht man sehr schön am Markt und auch in der Vergangenheit, es traut halt jeder der marke im schnitte mehr zu, das lässt sich nicht so einfach "abstellen" .

lg
 
Zuletzt bearbeitet:
Solange du sie nicht widerlegen kannst, bleiben sie bestehen.
so wie deine aussagen ...

Sämtliche Messwerte sind im Moment aber anscheinend sowieso fraglich, da Nvidia bei der Bildqualität schummeln soll, was ~10% Performance bringt.
mich würde immer noch brennend interessieren, woher du die gewissheit nimmst, dass a) nvidia schummelt und dass das b) 10% performance bringt. sagt dir das deine kristallkugel oder hast du die zahl ausgewürfelt?
 
Zeig doch wenigstens einmal etwas Anstand und Würde.
Es ist einfach grauenvoll deine Ignoranz immer wieder aufs neuste erleben zu müssen und dann noch Vorwürfe zu lesen, die nicht zutreffen, außer auf dich selber.
Mieser Diskussionsstil. Unter der Würde jedes hier mitlesenden und an technischen Infos Interessierten und mit einem erschreckenden Mangel an Anstand. Offensichtlich beschreibst du deine eigenen Beiträge wie ich dem Zitat hier entnehme.

Aber lediglich für eDP, weil die VESA dabei Stromsparen im Sinn hatte und nicht die Bekämpfung von Tearing.
Wo ist da das Argument? Willst du damit sagen dies stimmt nicht?
gruffi schrieb:
Die Adaptive Sync Spezifikation gab es vor G-Sync.
 
das ist einfach falsch da es nur die Nutzung einer schon bestehenden Laptop Technologie war und ist, die "künstlich" aufgebaut wurde und gar nicht zu dem Passt was hier "andichtet" wird.
Es gab schon weit vor G Sync die Withe Paper die das beinhalteten ....
Auch hier gilt nicht alles glauben was man irgendwo ließt.
Ich kann nicht nachvollziehen warum das Diskussionsobjekt ständig verschoben wird, auf Dinge die ich auch selber gleich am Anfang genannt habe.
Mein originaler Beitrag war folgender:

Bei G-Sync verstehe ich teilweise die Herangehensweise von Nvidia, aber außerhalb davon stellt Nvidia ihr hässliches Geschäftsgesicht zur Schau.
Es war übrigens G-Sync die erste Lösung mit dynamischen Refresh bei Monitoren.
Davor gab es zwar die eDP-Spec, aber dort wurde die Fähigkeit von keinem ausgenutzt.
http://www.planet3dnow.de/vbulletin/threads/422742-Warum-ist-Nvidias-Performance-Watt-besser?p=5023543&viewfull=1#post5023543

Und ich sehe bei meiner Behauptung auch nichts falsches.

Mieser Diskussionsstil. Unter der Würde jedes hier mitlesenden und an technischen Infos Interessierten und mit einem erschreckenden Mangel an Anstand. Offensichtlich beschreibst du deine eigenen Beiträge wie ich dem Zitat hier entnehme.
Mitlesende die an technischen Infos interessiert sind, mögen keine Links und Zitate, sondern brauchen unfundierte Behauptungen mit Vorwürfen gegenüber Verrückten, die sich die Mühe geben ihre Beiträge mit einer darauf basierenden Grundlage zu präsentieren.
Danke Complicated, dein Feedback wird eingearbeitet.
Auf das mein mieser Diskussionsstil besser wird.
 
Um die allgemeine Frage nach Energieffizienz beurteilen zu können, benötigt man ein Szenario welches halbswegs frei von Fremdeinflüssen ist. Meiner Meinung nach kommt da nur die Rohleistung in Betracht. Alles andere kann von Treiberrelease zu Treiberrelease, von Schnittstelle zu Schnittstelle, von Spiel zu Spiel variieren und führt nur zu endlosen Diskussionen.

Betracht ich dazu die FuryX dann komme ich
275W / 8,6 TFLOP = 31,97W/TFLOP

Für eine GTX 980TI errechne ich
250W / 7 TFLOP = 35,71W/TFLOP

Das die Rohleistung nur bedingt etwas mit Anwendungsperformance zu tun hat, dürfte jedem klar sein und muss nicht weiter diskutiert werden.
Die Fragestellung müsste deshalb eigenltich lauten, warum davon in Anwendungen weniger ankommt. DX-Features oder G-Sync-Diskussionen sind da wenig hilfreich und zeigen mehr einen Diskussionsstil aus dem Kindergarten.
 
Zuletzt bearbeitet:
Die Rohleistung fiktiv ohne Software-Einflüsse zu betrachten ist aber extrem hypothetisch.
Die Architekturen unterscheiden sich, weswegen sich zwanghaft Stärken und Schwächen ergeben und man nie eindeutig die Rohleistung als Maßstab nehmen kann.
Ebenso steht die angegebene TPD der Hersteller auf wackeligen Beinen.
 
Letztlich zählt aber Rechenleistung. Und zwar die, die ich im Idealfall erzielen kann. Nämlich die, die frei von Einflüssen ist.
Dass es durch die unterschiedlichen Archtitekturen nVidia vielleicht leichter fällt, die Leistung in Anwendungsfällen abzurufen ist eine andere Sache. Ist aber auch nur eine Momentaufnahme.

Persönlich glaube ich, dass es bei AMD Geschäftsstrategie ist, die letzte 10-20% zu verschenken, weil die Erschließung überproportional viele Ressourcen benötigt. AMD setzt auf ein breites Produktportfolio und somit auf viele Baustellen. Das ist eine zwiespältige Kiste. Zum einen ist man unempfindlicher, wenn aktuelle Trends mal wechseln, auf der anderes Seite wollen die Kunden makellose Produkte. nVidia hat bei der GTX970 das Speicherproblem nicht ohne Grund verschwiegen.
 
Zuletzt bearbeitet:
Die Rechenleistung ist allerdings abhängig von der konkreten Verwendung, da jede Architektur gewisse Limitierungen aufweist, welche einen daran hindern das theoretische Maximum zu erreichen.
Bei Kepler besteht, soweit ich keinen Unsinn erzähle, eine Limitierung beim Register-File zu den 192-ALUs, die dazu führt das es unmöglich ist unter Voll-Last alle 192 ALUs auszulasten.
Selbst wenn es eine Code-Sequenz gibt, welches das Shader-Array ideal ausnutzt, fehlt uns der nötige Praxisbezug für die Realität und daneben auch die Verbrauchswerte.

Und je nach Anwendung wird entsprechend das Front-End und die fixed-function-blöcke belastet, was außerhalb der Rechenleistung ebenso zur finalen Endleistung und Effizienz beiträgt.

Bei AMD herrscht vor allem ein Geld-Problem, welches zu fehlender Manpower und anschließend relativ schwacher Software gegenüber der Konkurrenz führt.
Das der Treiber bei AMD nicht ganz mitkommt, konnte man die letzten Jahre dank zahlreicher Daten ableiten und sebbi als Entwickler sagt auch, dass das eine Stelle weiter beim Shader-Compiler Probleme zu finden sind:
The AMD shader compiler is the biggest issue for GCN on PC. Current generation consoles have roughly the same GPU architecture as the AMD PC GPUs, making it easy for the developers to compare the compiler results (instruction counts, GPR counts, etc). A new (fully rewritten) shader compiler would be a big step in catching up with NVIDIA.
https://forum.beyond3d.com/threads/amd-pirate-islands-r-3-series-speculation-rumor-thread.55600/page-64#post-1846917

Mit dem nötigen Kapital könnte AMD bestimmt ihre Performance und letztendlich auch Performance/Watt verbessern.
Ich bin an der Stelle natürlich auch gespannt, wie sich die Anwendungseffizienz mit DX12 bei AMD vs. Nvidia verschiebt.
 
Zuletzt bearbeitet:
Ob der Shader-Compiler ein Problem ist, kann ich nicht beurteilen. Fakt ist aber, sollte dies so sein, wird das Problem auch unter DX12 erhalten bleiben. Allerdings wird sich die Zahl der Baustellen drastisch verringern, da die neueren Schnittstellen alle auf HLSL setzen. Die Ressourcen für die OpenGL und GLSL kann künftig anderweitig verwenden.

AMD hat in den letzten Monaten viel Grundlagenarbeit geleistet, allen voran in neue Schnittstellen. Man hat dafür viele Ressourcen abgestellt, Verbesserungen die allen zu gute kommen. Ich finde, das sollte man auch mal Anerkennen und mal darüber hinwegsehen, wenn andere Dinge dafür etwas liegen geblieben sind. Mich nervt diese Herumreiten auf Zahlen etwas an, weil die wirklich wichtigen Dinge darin komplett untergehen.
 
Sehe ich ähnlich. AMD hat endlich erkannt, dass zu guter Hardware auch eine gute Software-Infrastruktur gehört. Gleichzeitig sind beinahe alle Bemühungen der letzten Monate (Mantle als Basis für NextGen-APIs, OpenCL, HSA, AdaptiveSync, TressFX) für alle nützlich, nicht nur AMD-Nutzer. Bei Nvidia wird's zappenduster, wenn man sich mal fragt, was von den Sachen, die die entwickeln eigentlich allgemein dem PC nützt und was nur Nvidia-Nutzern.
 
@ mariahellwig

Vulkan wird zuerst nur GLSL supporten, wobei man hoffen könnte, dass jemand sich berufen fühlt ein HLSL Front-End zu bauen.

AMD hat natürlich stark zum Ökosystem beigetragen, dass hilft leider AMD relativ wenig und dem Kunden am Ende ebenso.
Entsprechend zählt weiterhin nur das was auf dem Teller landet und dort hat AMD noch viele Probleme zu lösen.


@ isigrim

Ich denke bei einer Skala von abgeschottet bis offen steht Nvidia relativ schlecht dar, aber sie haben ein Ökosystem aufgebaut, wo die Konkurrenz erst einmal etwas gleichwertiges bieten muss.
Da Nvidia weiterhin sehr gut verdient, AMD weiterhin Verluste schreibt, wird sich daran wohl vorerst nichts ändern.
Intel wird vielleicht irgendwann präsenter.
Sie haben ihre iGPUs stark verbessert und auch schon einige coole Software-Sachen und Hardware-Innovationen geliefert.
Wobei bei deren potentiellen Ressourcen, dass vielleicht auch eher als schwach angesehen werden kann.
 
Sehe ich ähnlich. AMD hat endlich erkannt, dass zu guter Hardware auch eine gute Software-Infrastruktur gehört. Gleichzeitig sind beinahe alle Bemühungen der letzten Monate (Mantle als Basis für NextGen-APIs, OpenCL, HSA, AdaptiveSync, TressFX) für alle nützlich, nicht nur AMD-Nutzer. Bei Nvidia wird's zappenduster, wenn man sich mal fragt, was von den Sachen, die die entwickeln eigentlich allgemein dem PC nützt und was nur Nvidia-Nutzern.

AMD hat dies aber nicht aus reiner Nächstenliebe getan, sondern Landschaft auszumisten, weil AMD mit seinen Ressourcen diesen Wildwuchs nicht mehr bedienen kann. Trotz allem stellt das für dem Endkunden einen enormen Fortschritt dar.
Das es solange gedauert hat, haben sich die Kunden aber selbst zuzuschreiben. Sie entscheiden sich bei ihrer Produktwahl kurzsichtig und nicht strategisch. Und meist lassen sie sich auch von irgendwelchen Meinungsmachern welche Punkte wichtig sind und welche nicht. Und meist sind die wichtigen genau die in denen nVidia oder Intel stark ist. Das nennt man PR-Arbeit.

Ich finde AMD agiert gegenwärtig recht geschickt. Wie man die großen dort hinbekommt wo man sie hinhaben will, verdient schon Respekt. Nämlich an einen Ort, wo man mit wenig Ressourcen viel leisten kann.
 
Zurück
Oben Unten