Warum ist Nvidias Performance/Watt besser ?

Irgendwie glaub ich dir nicht, dass du der Erste bist, der einfach so mal den Speicher (wirklich) übertaktet. Überall liest man in Tests, dass der Speichertakt fix ist und nicht geändert werden kann. OC-Tools zeigen zwar (erfolgreiche) Übertaktungen an, der Speicher läuft trotzdem mit 500 Mhz. Kannst du verraten, wie du es geschafft haben sollst?

Gruß

So wie es überall beschrieben steht (im MSI Afterburner die Option "Extend official overclocking limits" setzen, neu starten, und der Slider für das Memory-OC ist verfügbar). Ich weiß auch, dass AMD scheinbar behauptet hat es funktioniert nicht, aber es hat definitiv einen Effekt. Wenn Du es nicht glaubst, dann kauf Dir halt ne Fury X und probiere es selber aus.
 
Vulkan wird zuerst nur GLSL supporten, wobei man hoffen könnte, dass jemand sich berufen fühlt ein HLSL Front-End zu bauen.

Nicht ganz. So wie ich es verstanden habe, läuft alles auf den IL-Code SPIR-V hinaus. GLSL soll mit einem Compiler/Translator übersetzt werden. Dieser stammt aber nicht von AMD oder nVidia, sondern von Khronos. SPIR-V soll sich aber nicht nur über GLSL erzeugen lassen.
Auch OpenCL wird auf diesem Weg integriert. Sieht auf dem Papier zumindest nach einem großen Wurf aus.

http://www.pcper.com/reviews/General-Tech/GDC-15-What-Vulkan-glNext-SPIR-V-and-OpenCL-21
 
Zuletzt bearbeitet:
@ isigrim

Ich denke bei einer Skala von abgeschottet bis offen steht Nvidia relativ schlecht dar, aber sie haben ein Ökosystem aufgebaut, wo die Konkurrenz erst einmal etwas gleichwertiges bieten muss.
Das wäre dann der Worst Case für alle PC Käufer. Etwas gleichwertiges von AMD kann sich keiner wünschen der sich für Industriestandards interessiert. Geschlossene Ökosysteme sind der teuerste Weg mit dem geringsten Innovationstempo für den Endkunden.
 
@ mariahellwig

Das ist natürlich korrekt.
Aber SPIR-V wird denke ich niemand oder kaum ein Entwickler direkt angehen.
Interessieren wird sie, wie sie ihre Shader-Bibliothek auf Vulkan laufen lassen.
Entsprechend wichtig ist ein HLSL Translator und falls möglich PSSL.

@ Complicated

Es wäre natürlich ein worst-case wenn sich die IHVs mit exklusiven Sachen bekriegen und man als Kunde niemals das volle Paket bekommt.
Ein offenes System ist natürlich auch möglich, aber das muss dann auch gleichwertig sein.
Das kann AMD aber bisher nicht schultern.
 
@Locuza
Bezüglich "Ökosystem"
Die Konkurrenz macht das bereits. Nennt sich Konsole...Wer den PC als Plattform mag, sollte momentan überlegen, ob das was Nvidia macht mittelfristig dem PC nicht mehr schadet als nützt.
 
Was Nvidia macht schadet mehrheitlich dem PC als ganzes.
Ändert kann man daran wenig, außer fiktiv sich ausbilden zu lassen, bei AMD sich bewerben und mit allen Mitteln versuchen einen besseren Job zu machen, als den AMD bisher macht.
 
Nein. Man kann auf die Stärken von AMD hinweisen, anstatt ständig zu behaupten, dass sie schlechte Arbeit liefern.
Sie haben viele Baustellen, aber wie schon gesagt: Die Baustellen sind eben quasi öffentlicher Raum. Dass sie daran arbeiten, nützt uns allen.

Manchmal wäre es daher schön, wenn die vermeintlichen Vorteile bei Nvidia den mittelfristigen Nachteilen entgegengestellt werden. Das muss die Fachpresse machen, weil ich einem Otto-Normal-Nutzer nicht zutrauen kann, dass er sich um langfristige Strategien im PC-bereich kümmert und entsprechend investiert. Von denjenigen, die sich mit der Materie auskennen, müsste man allerdings erwarten, dass sie da aufgeschlossener sind.
Aber die Fachpresse lässt sich in vielen Fälle zu leicht durch Nvidias Politik einlullen. (Testsamples nur in Verbindung mit strengen Auflagen etc.)

Und das Ergebnis ist, dass die anderen, die sich mit der Materie auseinandersetzen dann vielleicht manchmal bei ihrer Pro-AMD-Meinung etwas übers Ziel hinausschießen. Das gleicht meiner Meinung nach aber bei Weitem nicht das aus, was durch Nvidia schief läuft.
 
Ich halte von den Ideologischen Dingen relativ wenig.
AMD positiv bewerben, AMD Produkte kaufen oder ähnliches.
Solange AMD nicht selber grundlegend überzeugen kann oder ihre Produkte am Markt positionieren, werden die Bemühungen einzelner Gesellen zu praktisch nichts führen.
 
Geschlossene Ökosysteme sind der teuerste Weg mit dem geringsten Innovationstempo für den Endkunden.

Naja, würde ich so nicht unterschreiben. In einem geschlossenem System muss man wenig Rücksicht auf andere nehmen und kann Features im Alleingang einführen. Solche Systeme haben meist eine Vorreiterrolle. Wenn alles aus einer Hand kommt gibt es meist auch weniger Abstimmungsprobleme, siehe Apple.
Sobald aber das Projekt eine gewisse Größe erreicht hat, bekommt ein einzelnes Unternehmen Schwierigkeiten das Innovationstempo aufrecht zu halten.

AMD hat es bei Mantle eigentlich perfekt gemacht. Zuerst einen Entwurf in kleinem Kreis erstellt und diesen dann standartisiert.

Wenn ich mich zwischen AMD und nVidia entscheide, entscheide ich mich zwischen 2 Ökosystemen. Das sollte jedem klar sein. Leider wird das heute in vielen Reviews auf FPS, Geräuschemission und Leistungsaufnahme reduziert. Das ist der Tatsache geschuldet, dass viele Kunden mit einer komplexe Betrachtung überfordert sind und man dies stark vereinfacht. Das ist soweit auch in Ordnung. Ich empfinde es nur als traurig, wenn hier Beiträge mit großem Hintergrundwissen auf diese Vereinfachungen zurückgreifen. Das hat man doch eigentlich nicht nötig.
 
Apple als Beispiel ist sehr gut gewählt. Das iPhone hat die technische Grundlage der mobilen Telefone um Jahre zurück geworfen. Das erste iPhone, das eine disrupptive Auswirkung auf den Markt hatte, konnte noch nicht mal copy/paste. Die Telekom hat plötzlich Tethering kostenpflichtig gemacht in iPhone-Verträgen. Der Verkaufserfolg geschlossener Systeme beruht auf Simplizität für die Masse und nicht auf technischer Innovation. Die Touchscreen-GUI und die "Schwupzidität" sorgten dafür, dass ich plötzlich nach meinem Nokia N95 kein Telefone mehr mit frei konfigurierbaren VoIP Konten mehr kaufen konnte. Mit dem N95 kann ich sogar Festnetz-Telefonate im WLAN führen über meine Fritzbox. Mit modernen Telefonen nicht mehr.

Und wenn du heute schon sagst man müsse zwischen AMD und Nvidia Ökosystem wählen verkennst du die aktuelle Situation. AMD hat kein eigenes Ökosystem, sondern nutzt Industriestandards. Und nur weil es zwei Player gibt anstatt 3 oder mehr, bedeutet das nicht, dass nun Industriestandards das selbe sind wie Nvidias geschlossenes Ökosystem.
Zumal hier, im Gegensatz zum iPhone, von Nvidia keinerlei Mehrwert geboten wird der den Markt revolutioniert und die Massen anspricht in einer nie zuvor gesehenen Weise. Hier wird Stück für Stück abgeschottet und das hauptsächlich durch leichte Abwandlung und künstliche Beschränkung schon vorhandener Standards in der Industrie. Siehe GSync und GameworX. Für den Endkunden kommt hier überhaupt nichts bei rum ausser Diskussionen über schlechten Support schon bestehender Hardware im Markt - da kann doch keiner über geschlossene Ökosysteme jubeln wollen.
 
Zuletzt bearbeitet:
Und wenn du heute schon sagst man müsse zwischen AMD und Nvidia Ökosystem wählen verkennst du die aktuelle Situation. AMD hat kein eigenes Ökosystem, sondern nutzt Industriestandards. Und nur weil es zwei Player gibt anstatt 3 oder mehr, bedeutet das nicht, dass nun Industriestandards das selbe sind wie Nvidias geschlossenes Ökosystem.

Formulieren wir es mal anders: AMDs Ökosystem basiert auf Industriestandards. AMD bringt viele Standards ein, wie Vulkan oder AdaptiveSync.
Ich bin ja auch ein Fan offener Systeme. Allerdings muss man zugestehen, dass die geschlossenen oft wirtschaftlich erfolgreicher sind.
 
Nicht AMDs Ökosystem basiert auf Industriestandards. Industriestandards sind ein offenes Ökosystem, welches AMD nutzt. Dies kann jeder in der Industrie ebenfalls.

Und wirtschaftlicher Erfolg ist in dieser Diskussion irrelevant, da wir über technische Innovationen reden und über Vorteile für Endkunden - der wirtschaftliche Erfolg bedeutet höhere Preise und weniger Wahlmöglichkeit. Es ist immer das letzte verbleibende Argument für Nvidias Unternehmenspolitik, nur ist es eines das in Computerforen keinerlei Bedeutung hat wenn über Technik diskutiert wird.

Übrigens hat AMD AdaptiveSync nicht eingebracht als Standard, sondern den von der VESA in 2009 verabschiedeten Standard benutzt.
 
Die Rohleistung fiktiv ohne Software-Einflüsse zu betrachten ist aber extrem hypothetisch.
Die Architekturen unterscheiden sich, weswegen sich zwanghaft Stärken und Schwächen ergeben und man nie eindeutig die Rohleistung als Maßstab nehmen kann.
Ebenso steht die angegebene TPD der Hersteller auf wackeligen Beinen.
Ja das stimmt, BOINc z.b. meint eine R7970 hat bei mir 9TFlop/s.
Interessanterweise, sind gerade die Wissenschaftliche Ranglisten beim Sisoftware SANDRA Server größtenteils von Quad R9 290 bis zur Top 20 einseitig AMD/ATI *noahnung*
 
Übrigens hat AMD AdaptiveSync nicht eingebracht als Standard, sondern den von der VESA in 2009 verabschiedeten Standard benutzt.

Das wurde vorher für eDP so ähnlich benutzt, ja. Aber AMD hat den Vorschlag eingebracht es für den normalen DP zu übernehmen.
 
Wieso aber? Ich schrieb doch genau das selbe. AdaptiveSync wurde 2009 standardisiert. Wann es in welcher Schnittstelle Anwendung findet ist ja keine Neuerfindung.
 
@Locuza
Das mit dem Anstand und der Ignoranz kannst du ruhig erst mal für dich selbst klären. Bei dem Unsinn, den du hier veranstaltest (um was nochmal zu beweisen? *noahnung*) hast du es wesentlich nötiger.

Irgendein Forenheini und eine belanglose Aussage eines Nvidia Mitarbeiters ist für mich auch keine offizielle Bestätigung. Insofern bleibt es dabei, ob GPU PhysX in Project Cars verwendet wird, ist weiterhin unklar. Tests lassen jedenfalls daran zweifeln, dass PhysX nur auf der CPU läuft. Da hilft auch Wunschdenken deinerseits nichts. Dass du trotzdem weiter darauf rumreitest, obwohl das Thema längst abgehakt war, sagt irgendwie genügend über deinen Diskussionsstil. Ich habe auch nicht gesagt, dass der AT Artikel zu Async Shaders nicht legit sei. Wieder mal erfindest du nur Märchen, um nach billigen Ausreden zu suchen. LERN LESEN, JUNGE! Ich sagte, dass der AT Artikel nicht erläutert, wie die Nvidia Architektur an der Stelle konkret funktioniert und ob Async Shaders unterstützt werden. Insofern ist dies als Quelle wertlos. Da wären wir wieder bei deinem Lieblingsthema, Wunschdenken. Womit wir zum letzten Punkt kommen, G-Sync. Da liegst du immer noch falsch. Die Adaptive Sync Spezifikation gibt es schon deutlich länger. Als "Lösung" wurde es ebenso schon davor verwendet, zB in Notebooks.

Aber mach ruhig weiter mit deinem Wiederholen der immer gleichen falschen Behauptungen. In Zukunft werde ich nur noch meine Aussagen zitieren. Spart deutlich Zeit und hat nicht weniger Substanz als dein Quark.


mich würde immer noch brennend interessieren, woher du die gewissheit nimmst, dass a) nvidia schummelt und dass das b) 10% performance bringt. sagt dir das deine kristallkugel oder hast du die zahl ausgewürfelt?
Ich habe nichts von Gewissheit geschrieben oder gesagt. Die Aussagen waren nicht grundlos im Konjunktiv gehalten. Infos dazu kannst du in den entsprechenden Foren nachlesen. Links dazu wurden zuvor schon gepostet. Die gleiche Bildqualität wie bei einer Fury konnte da auf einer GTX nur durch höhere Settings im Treiber erzielt werden, was ~10% Performance kosten kann.
 
Hab es gefunden. War im Mai gewesen als ich es gelesen hatte;
http://www.computerbase.de/forum/showthread.php?t=1474016&p=17368501#post17368501

https://developer.nvidia.com/content/maxwell-gpu-physx-particles

We can see from the above profile that using shared atomics results in a 2x performance improvement. However, using atomics comes with caveats. Due to the nature of atomics, execution becomes non-deterministic. Using the parallel prefix sum example, we can see that the sequence of the prefix sum is in increasing order or in the general case, it has a predictable order. Unfortunately, when using atomics, the ordering is no longer guaranteed because it depends on scheduling and how conflicts are resolved by the GPU. So depending on the use case and algorithm, use of atomics could lead to non-deterministic ordering of the final results and this could make debugging much more difficult. The recommendation is to have a deterministic version to fall back on for debugging or to sort the final results so that ordering can be restored.
Nur hier sehen wir auch was bei der Benutzung dieses Features weiterhin für eine Konsequenz entsteht. Ich habe das mal blau markiert.

Man sieht, dass es ein neues Scheduling der GPU erfordert wegen möglichen Kollision im Speicher. Es gäbe einen Fallback-Pfad den man erstellen soll. Ich vermute, dass genau hier der Hund begraben liegt, und auf diesem Fallbackpfad nachgebesert werden muss. Die Keplers performen ja auch schlechter, was in etwa konsistent ist mit den Forenmeldungen, da Kepler halb soviel PhysX Performance aufbringt im Vergleich zu Maxwell. Daher fallen auch diese zurück in den Benches, haben aber sicherlich noch ein besseres Scheduling verbaut für Nvidia optimierten Code als das was für AMD dann genutzt wird im Fallback Modus (Falls die dann nicht mit Nvidias Scheduling arbeiten müssen) Da geht alles drauf auf die CPU. Hier kann man sicher nachbesseren, doch völlig lösen wird sich das Dilema nicht lassen, denke ich.

Auch hier wird es deutlich geschrieben:
http://www.reddit.com/r/pcmasterrac...my_word_if_we_dont_stop_the_nvidia_gameworks/
Daraus das relevante zitiert ebenfalls hier:
http://www.computerbase.de/forum/showthread.php?t=1474016&p=17400561#post17400561
CPU based PhysX is hogging the CPU cycles as evident with the i7-5960X test and not leaving enough room for AMD drivers to operate. What's the solution? DX12 or hope that AMD changes the way they make drivers. It will be interesting to see if AMD can make a "lite" driver for this game. The GCN architecture is supposed to be infinitely programmable according to the slide from Microsoft I linked above. So this should be a worthy challenge for them. Basically we have to hope that AMD can lessen the load that their drivers present to the CPU for this one game. It hasn't happened in the 3 years that I backed, and alpha tested the game. For about a month after I personally requested a driver from AMD, there was new driver and a partial fix to the problem. Then Nvidia requested that a ton of more PhysX effects be added, GameWorks was updated, and that was that... But maybe AMD can pull a rabbit out of the hat on this one too. I certainly hope so.
 
Dort behauptet Daedal die Entwickler (Slightly Mad Studios) zu zitieren - was rein aus dem Text schon nicht sein kann.

Folgt man den Links, landet man erst bei Reddit, dann im Anandtech Forum, dort bei Post #204, der wiederum auf Post #202 verweist und der auf Steam und da ist nichts dergleichen zu finden. Originale Quelle?
 
Lies meine Beiträge um die Originalquellen zu sehen ^^
Das ist doch völlig egal was Deadal behauptet. Die Zitate in englisch zeigen doch dass es ein Tester war der 3 Jahre schon getestet hat und das andere ist Nvidias eigene Entwicklerseite für PhysX. Immer dieses Nebelkerzen.

Wenn das keine Entwicklerseite ist weiss ich auch nicht: https://developer.nvidia.com/content/maxwell-gpu-physx-particles



--- Update ---

Hinzu kommt die Quelle von Anands Artikel die zeigt, dass Project Cars eben oben beschriebenes "Particle Physik" GameworX benutzt:
http://www.anandtech.com/show/8546/nvidia-gameworks-more-effects-with-less-effort
Project CARS DX11, Turbulence, PhysX Particles, Enhanced 4K Support

Da braucht mir keiner mehr mit "wo steht das?" kommen.
 
Bin mal gespannt ob Just Cause 3 auch CUDA Wasser beinhaltet.
Es kommt wohl für PC, PS4 & Xbox zur gleichen Zeit raus:

Bröselt schon mal schön. 8)
 
Nichts von der Klarstellung in dem Link widerspricht der Benutzung von shared atomics für Maxwell GPUs. So wie es oben beschrieben ist auf Nvidias eigener Webseite wird der Code zwar auf der CPU ausgeführt, muss aber durch den GPU Speichercontroller um eben die zeitliche Reihenfolge wiederherzustellen. Dies führt bei AMD zu einer erhöhten Last des Hauptthreads, während Nvidias Threads weiterhin parallel verteilt werden können auf die CPU.

@y33H wie viel originaler soll die Quelle denn noch werden? Von wem könnte Nvidia sich ihre Technik zeigen lassen?

Zudem die Entwickler von Project Cars mehrfach der Lüge überführt wurden im Zuge dieser Diskussion und ebenso des Versuchs der Irreführung:
Von "keiner hat sich bei uns gemeldet von AMD" bis "wir arbeiten seit Jahren zusammen" und haben "20 keys an AMD geschickt" hat man da schon alles möglich lesen dürfen.
 
@Locuza
[1]Das mit dem Anstand und der Ignoranz kannst du ruhig erst mal für dich selbst klären. Bei dem Unsinn, den du hier veranstaltest (um was nochmal zu beweisen? *noahnung*) hast du es wesentlich nötiger.

[2]Irgendein Forenheini und eine belanglose Aussage eines Nvidia Mitarbeiters ist für mich auch keine offizielle Bestätigung. Insofern bleibt es dabei, ob GPU PhysX in Project Cars verwendet wird, ist weiterhin unklar. Tests lassen jedenfalls daran zweifeln, dass PhysX nur auf der CPU läuft. Da hilft auch Wunschdenken deinerseits nichts. Dass du trotzdem weiter darauf rumreitest, obwohl das Thema längst abgehakt war, sagt irgendwie genügend über deinen Diskussionsstil. [3]Ich habe auch nicht gesagt, dass der AT Artikel zu Async Shaders nicht legit sei. Wieder mal erfindest du nur Märchen, um nach billigen Ausreden zu suchen. LERN LESEN, JUNGE! Ich sagte, dass der AT Artikel nicht erläutert, wie die Nvidia Architektur an der Stelle konkret funktioniert und ob Async Shaders unterstützt werden. Insofern ist dies als Quelle wertlos. Da wären wir wieder bei deinem Lieblingsthema, Wunschdenken. [4] Womit wir zum letzten Punkt kommen, G-Sync. Da liegst du immer noch falsch. Die Adaptive Sync Spezifikation gibt es schon deutlich länger. Als "Lösung" wurde es ebenso schon davor verwendet, zB in Notebooks.

[5]Aber mach ruhig weiter mit deinem Wiederholen der immer gleichen falschen Behauptungen. In Zukunft werde ich nur noch meine Aussagen zitieren. Spart deutlich Zeit und hat nicht weniger Substanz als dein Quark.
[1] Wenn du praktisch nie etwas in der Hand hast und nur Behauptungen lieferst, was erwartest du außer Ignoranz?
Ach ja, um deine krude Weltvorstellung und deine Anzahl an Falschaussagen zu widerlegen.

[2] Also wiederholst du dich, mit erneut leeren Händen oder sollen Tests, welche du nie verlinkt hast, als Gegenbeweis herhalten?
Starke Argumente as always.
Aber ich habe schon mitbekommen, dass falls es 100 Berichte zu einem Thema gibt, wovon 99 Berichte Aussage A treffen irrelevant sind, solange es wenigstens einen Bericht gibt mit der Aussage B, der dir besser passt.
Egal ob auf der einen Seite sich Fachredaktionen, IHVs, Mitarbeiter oder vermutlich Gott befindet, solange es irgendeinen Müll da draußen gibt, der das Gegenteil behauptet.
Und dann ist das Thema schon lange abgehackt, wenn es dir passt.
Das beweist dann wenn schon deinen Diskussionsstil.

[3] An der Stelle mag ich gerne mit einwerfen, dass sich die Effizienz der Implementation bei Maxwell noch beweisen muss.
Ebenso beim Thema ROVs.
Zwei Punkte wo Nvidia schweigsam ist.
Ich gehe davon aus das AMDs effektive Multiengine Unterstützung sehr gut ausfällt, ebenso Intels ROV Implementierung.
Wie sich Maxwell jeweils schlägt wird spannend.
Auf dem Papier unterstützt Maxwell eine 3D-Queue und bis zu 31 Compute-Queues gleichzeitig, technische Details über die praktische Ausführung bietet der Artikel in der Tat nicht an.
Insofern gestehe ich an der Stelle ein, dass ich keinen Beweis liefern konnte, ob und wie effektiv Nvidia eine asynchrone Ausführung unterstützt.
Sie unterstützen asynchrone time warps bei ihrem VR SDK:
http://www.onlyvr.de/hardware/115-nvidia-k%C3%BCndigt-gameworks-vr-und-geforce-gtx-980-ti-an

Parallel compute only, scheint gut zu funktionieren:
https://youtu.be/TxtZwW2Lf-w?t=5m52s

[4] Ignoranz much? Ich wiederhole gerne zum vermutlich fünften mal, dass ich von Anfang an gesagt habe das es die Spec beim eDP Standard vor G-Sync gab.
Ein Produkt welches diese Fähigkeit genutzt hat gab es aber nicht.
Du könntest ja gerne einen Gegenbeweis mit einem Notebook liefern, welches variable refresh dem Konsumenten vor G-Sync angeboten hat, aber lass mich raten wer nichts finden wird...

[5] Du redest von Substanz und Quark?
Oh Spiegelmann bitte komm und rette mich *lol*

die meisten news basieren meines wissens auf der ursprünglichen ankündigung von project cars, wo noch von gpu-basierten physx die rede war.
Das scheint öfters nicht so geklappt zu haben.
Der Tessellation-Patch für AC:Unity kam meines Wissens nie, Batman: Arkham Knight erschien am Ende ohne das am Anfang genannte Faceworks
 
Zuletzt bearbeitet:
Zurück
Oben Unten