App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Warum ist Nvidias Performance/Watt besser ?
- Ersteller Night<eye>
- Erstellt am
Wu134
Grand Admiral Special
- Mitglied seit
- 24.04.2006
- Beiträge
- 2.169
- Renomée
- 29
- Standort
- bei Ulm
- Mein Laptop
- Lenovo U41-70
- Prozessor
- AMD Athlon X4 860K
- Mainboard
- Gigabyte GA-F2A78M-DS2
- Kühlung
- Arctic Freezer Extreme
- Speicher
- G.Skill Ripjaws 2 x 4 GB DDR3-2133
- Grafikprozessor
- AMD RX460 2 GB
- Display
- 19" BenQ FP91GP 1280x1024
- SSD
- Crucial M500 120 GB
- HDD
- Samsung F2 500 GB
- Optisches Laufwerk
- Samsung SH-S183A
- Soundkarte
- onboard Realtek HD
- Gehäuse
- Coolermaster Centurion 5 + Silentmaxx Dämmung
- Netzteil
- BeQuiet L7 300W
- Betriebssystem
- Windows 10 x64
- Webbrowser
- Firefox
- Verschiedenes
- Idle 44 W, Prime95 133 W, Spiele ca. 170 W
Das was ich gepostet habe, bezieht sich generell auf die Skalierung beim Übertakten, das Memory-OC war eigentlich nur ein Hinweis. Alleine 50 MHz beim Speicher bringen knapp über 2% beim 3D Mark, übertaktet man Speicher und Chip bekommt man wie oben gezeigt eine ordentliche Skalierung.
Irgendwie glaub ich dir nicht, dass du der Erste bist, der einfach so mal den Speicher (wirklich) übertaktet. Überall liest man in Tests, dass der Speichertakt fix ist und nicht geändert werden kann. OC-Tools zeigen zwar (erfolgreiche) Übertaktungen an, der Speicher läuft trotzdem mit 500 Mhz. Kannst du verraten, wie du es geschafft haben sollst?
Gruß
Houston2603
Gesperrt
- Mitglied seit
- 21.11.2010
- Beiträge
- 123
- Renomée
- 1
Er ist nicht der erste... gibt noch deutlich mehr Leute.
Auch haben Reviewer, die mit den erhöhten Werten gebencht haben, überall mehr Leistung festgestellt. Daher kam ja kurzzeitig das Gerücht, dass, wenn nicht der Speicher, dann der PCI-E übertaktet wird ( im Zusammenhang, weil dieser was wärmer wurde ) ...
Kurzum, das Übertakten ist unter Umständen möglich. Mal mehr mal weniger.
Auch haben Reviewer, die mit den erhöhten Werten gebencht haben, überall mehr Leistung festgestellt. Daher kam ja kurzzeitig das Gerücht, dass, wenn nicht der Speicher, dann der PCI-E übertaktet wird ( im Zusammenhang, weil dieser was wärmer wurde ) ...
Kurzum, das Übertakten ist unter Umständen möglich. Mal mehr mal weniger.
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
@Locuza
Im Moment fehlt mir einfach die Zeit (und Lust), deinen Unsinn erneut zu durchwühlen. Bringt eh nichts, da du scheinbar völlig verbohrt den Nvidia Unsinn auch noch schönredest, auf konkrete Fragen nur ausweichst und nie zugeben würdest, wenn Nvidia technologisch hintendran ist. Und das sind sie seit nunmehr 7 Jahren und dem RV770 von AMD.
Halten wir also die Fakten nochmal fest. GCN unterstützt sämtliche DirectX 12 Features bis auf ROVs. ROVs sind im Moment allerdings völlig belanglos, da es sowieso so schnell nicht genutzt werden wird und nur begrenzte Anwendungsfälle gibt. Ist also in keinster Weise ein Argument für Nvidia, da es im wesentlichen um OIT geht, worüber auch Johan Andersson spricht und was AMD unterstützt. ROVs sind mMn einfach das unbedeutendste neue Feature, da es direkt visuell nichts beitragen kann und Performance-/Effizienzgewinne erst noch bewiesen werden müssen. Im Gegensatz zu zB Asyn Shaders habe ich jedenfalls noch keine konkreten Zahlen zu ROVs gesehen. FL12.1 ist im Moment daher ziemliches Blendwerk. Nvidia ist deutlich im Nachteil in den kommenden Monaten aufgrund von fehlendem RB Tier 3 und Async Shaders. Es gibt auch kein teilweise bindless. Entweder ist die Architektur bindless oder nicht. AMDs Architektur ist bindless, Nvidias Architektur ist es nicht.
Man sieht, dass die Fury X einzig aufgrund des höheren PT sich mehr genehmigen kann. Schraube das PT runter und die Effizienz ist genauso wie bei Nvidia oder gar besser. Genau hier wird auch die Fury Nano ansetzen. Sämtliche Messwerte sind im Moment aber anscheinend sowieso fraglich, da Nvidia bei der Bildqualität schummeln soll, was ~10% Performance bringt. Das wirft erneut ein sehr schlechtes Licht auf Nividia.
Alles was bisher zu Project Cars bekannt ist, es verwendet CPU und GPU PhysX. Irgendwelche dubiosen und nicht nachvollziehbaren Forenbeiträge helfen auch nicht, um mehr Erkenntnisse zu gewinnen. Aber das Thema war eh längst ad acta gelegt. Es ging nur darum, dass du begreifst, welche negativen Auswirkungen Nvidias Spielchen auf uns User immer wieder haben und dass sie dafür weiterhin scharf kritisiert werden. Das hast du hoffentlich getan. Wenn y33H@ für dich eine Quelle sein soll, bitteschön. Für mich ist er das nicht, da er unzählige Male unter Beweis gestellt hat, wie unglaubwürdig, unsachlich und voreingenommen er ist.
Die Adaptive Sync Spezifikation gab es schon bevor Nvidia G-Sync vorgestellt hat. Also nein, G-Sync war nicht die erste Lösung für dynamischen Refresh Raten.
Im Moment fehlt mir einfach die Zeit (und Lust), deinen Unsinn erneut zu durchwühlen. Bringt eh nichts, da du scheinbar völlig verbohrt den Nvidia Unsinn auch noch schönredest, auf konkrete Fragen nur ausweichst und nie zugeben würdest, wenn Nvidia technologisch hintendran ist. Und das sind sie seit nunmehr 7 Jahren und dem RV770 von AMD.
Halten wir also die Fakten nochmal fest. GCN unterstützt sämtliche DirectX 12 Features bis auf ROVs. ROVs sind im Moment allerdings völlig belanglos, da es sowieso so schnell nicht genutzt werden wird und nur begrenzte Anwendungsfälle gibt. Ist also in keinster Weise ein Argument für Nvidia, da es im wesentlichen um OIT geht, worüber auch Johan Andersson spricht und was AMD unterstützt. ROVs sind mMn einfach das unbedeutendste neue Feature, da es direkt visuell nichts beitragen kann und Performance-/Effizienzgewinne erst noch bewiesen werden müssen. Im Gegensatz zu zB Asyn Shaders habe ich jedenfalls noch keine konkreten Zahlen zu ROVs gesehen. FL12.1 ist im Moment daher ziemliches Blendwerk. Nvidia ist deutlich im Nachteil in den kommenden Monaten aufgrund von fehlendem RB Tier 3 und Async Shaders. Es gibt auch kein teilweise bindless. Entweder ist die Architektur bindless oder nicht. AMDs Architektur ist bindless, Nvidias Architektur ist es nicht.
Man sieht, dass die Fury X einzig aufgrund des höheren PT sich mehr genehmigen kann. Schraube das PT runter und die Effizienz ist genauso wie bei Nvidia oder gar besser. Genau hier wird auch die Fury Nano ansetzen. Sämtliche Messwerte sind im Moment aber anscheinend sowieso fraglich, da Nvidia bei der Bildqualität schummeln soll, was ~10% Performance bringt. Das wirft erneut ein sehr schlechtes Licht auf Nividia.
Alles was bisher zu Project Cars bekannt ist, es verwendet CPU und GPU PhysX. Irgendwelche dubiosen und nicht nachvollziehbaren Forenbeiträge helfen auch nicht, um mehr Erkenntnisse zu gewinnen. Aber das Thema war eh längst ad acta gelegt. Es ging nur darum, dass du begreifst, welche negativen Auswirkungen Nvidias Spielchen auf uns User immer wieder haben und dass sie dafür weiterhin scharf kritisiert werden. Das hast du hoffentlich getan. Wenn y33H@ für dich eine Quelle sein soll, bitteschön. Für mich ist er das nicht, da er unzählige Male unter Beweis gestellt hat, wie unglaubwürdig, unsachlich und voreingenommen er ist.
Die Adaptive Sync Spezifikation gab es schon bevor Nvidia G-Sync vorgestellt hat. Also nein, G-Sync war nicht die erste Lösung für dynamischen Refresh Raten.
y33H@
Admiral Special
- Mitglied seit
- 16.05.2011
- Beiträge
- 1.768
- Renomée
- 10
Schon mal kein Fakt, da CR laut AMD fehlt. Den Gegenbeweis müsstest du schon liefern.Halten wir also die Fakten nochmal fest. GCN unterstützt sämtliche DirectX 12 Features bis auf ROVs.
Im Auslieferungszustand ist die Effizienz nun mal schlechter.Man sieht, dass die Fury X einzig aufgrund des höheren PT sich mehr genehmigen kann. Schraube das PT runter und die Effizienz ist genauso wie bei Nvidia oder gar besser.
Sie sind "anscheinend fraglich"? Du glaubst also diesen Bullshit selbst nicht? Sehr gut. Den Gegenbeweis müsstest du schon liefern.Sämtliche Messwerte sind im Moment aber anscheinend sowieso fraglich, da Nvidia bei der Bildqualität schummeln soll, was ~10% Performance bringt. Das wirft erneut ein sehr schlechtes Licht auf Nividia.
Erneut kein Fakt, sondern falsch. Den Gegenbeweis müsstest du schon liefern.Alles was bisher zu Project Cars bekannt ist, es verwendet CPU und GPU PhysX.
Ich bin unglaubwürdig für dich - leg du doch erst mal Beweise für all deinen Quatsch vor. Was du seit Jahren nicht machst, sondern herum stänkerst und weswegen du unglaubwürdig und in vielen Foren gebannt bist.Wenn y33H@ für dich eine Quelle sein soll, bitteschön. Für mich ist er das nicht, da er unzählige Male unter Beweis gestellt hat, wie unglaubwürdig, unsachlich und voreingenommen er ist.
Ich hab jetzt mal an Herrn Sellers geschrieben. Ob er antwortet bleibt abzuwarten, aber langsam reicht´s einfach mit diesen ständigen Behauptungen, die als Fakten dargestellt werden.
@gruffi Ich bin ja sehr dafür AMD gegen alle Verleumdungen etc. zu verteidigen , aber so funktioniert eine Diskussion nicht. "Technologisch hintendran"....lässt sich so nicht darstellen. "technologisch" ist schon alleine viel zu komplex, weil es alle Bereiche der GPUs abdeckt. Von der Ip zur Fertigung zur Software etc. In bestimmten Bereichen sind sie voraus, in bestimmten hinterher. Einfach zu sagen sie sind hintendran ist eine einseitige Behauptung.
OIT ist nicht ROV. OIT lässt sich aber mit ROV beschleunigen.
Das mit Project Cars GPU Physx würde mich jetzt auch mal interessieren, wo der Beleg ist. Ich habe auch da bisher nur Behauptungen gesehen. Ich denke schon, dass SlightlyMad viel zugunsten von Nvidia gedreht hat, aber dafür brauchen sie kein GPU-Physx. Da reicht es, die Pipeline mit DrawCalls vollzustopfen. Das ist bei DX11 schlicht kontraproduktiv und spricht nicht für die Fähigkeiten der Entwickler.
Ich kann noch eine Geschichte aus der Vergangenheit zu Nvidias "Praktiken" erzählen:
Ich war einer der Alphatester zu Octane (damals hieß das Ding noch anders). Als Terrence angefangen hat, das Ganze auf CUDA zu programmieren, hat ihm Nvidia ohne zu Zucken und ohne eine Forderung vier Quadros geschickt. Einfach so. Entsprechend hat er natürlich weiterhin eng mit denen kooperiert, woraus ich ihm keinen Vorwurf machen würde. Für eine Firma geht es nicht um Neutralität, sondern um Gewinn. Es gab auch handfeste Vorteile, die für CUDA und gegen OpenCL gesprochen haben (Atomics waren zu Beginn bei OpenCL ein Problem z.B.)
Heute gehört Octane Render zu OTOY. Falls OTOY jemandem noch was sagt...das ist die Firma, mit der AMD 2009 gemeinsam eine Fusion-Render-Cloud aufbauen wollte (Lustig, dass sie schon damals die Namen der AMD-GPUs nicht hinbekommen haben und von Cypruss sprechen...). Offenbar hat sich dann allerdings statt AMD eher Nvidia bereiterklärt die entsprechenden Systeme zu liefern. (Siehe hier ab Minute 8 etwa) Cleverer Schachzug, wohl auch weil das gut in Nvidias Strategie gepasst hat, die Fermis primär als HPC-Beschleuniger zu vermarkten. Inzwischen kooperiert OTOY übrigens mit allen Größen der Branche und setzt in ihren Servern auf Nvidia GPUs.
Das Gute kommt aber zum Schluss: Octane v3 unterstützt nun wohl auch OpenCL. Juhu! Die OTOY-Server dürften aber auf absehbare Zeit weiterhin mit Nvidia-GPUs betrieben werden. AMD hat seine Chance damals vertan, Nvidia hat sie genutzt. So einfach ist das.
Man muss jemandem wie Dade (David Buccarelli) von LuxRender höchsten Respekt zollen, dass er bei OpenCL geblieben ist. Und man sieht heute bei Lux eben, was mit AMDs GPUs möglich ist und vielleicht in anderen Fällen möglich gewesen wäre. Nur hat Lux alleine AMD keine finanziellen Vorteile gebracht. OTOY dagegen hat Nvidia massive finanzielle Vorteile gebracht, die wiederum investiert wurden, um diesen Bereich zu stärken.
AMDs Cycles hatte aufgrund des "Megakernels" ein Problem mit AMDs Compiler (bzw. umgekehrt). AMD hat lange gebraucht, um eigene Leute zu schicken und diesem OS-Projekt zu helfen. Zu lange für mich. Langsam scheint es zu funktionieren. Man ist da offensichtlich ein wenig aufgewacht.
HSA ist auch so eine Baustelle, wo man sich schlicht ein Prestige-Projekt suchen müsste und da massiv investieren sollte. Macht man aber offensichtlich nicht. Man hofft, dass sich das von selbst irgendwie ergibt. Aber so funktioniert diese Industrie nicht. Ich muss Impulse setzen, das können kleine Impulse sein (wie bei Terrence) oder große (wie bei OTOY).
Was ich sagen will: AMD hat in der Vergangenheit manchmal sehr schlechte Entscheidungen getroffen und macht es teils noch heute (Michael Larabel keine Samples zu schicken z.B.)
Nvidia weiß dagegen, wie man sich vermarktet und hat ein klareres Konzept, was die Investitionen in die Zukunft angeht. Da kann AMD einiges lernen (hoffentlich nicht zu viel, sonst haben wir neben dem proprietären Nvidia-Müll bald auch noch proprietären AMD-Müll).
@gruffi Ich bin ja sehr dafür AMD gegen alle Verleumdungen etc. zu verteidigen , aber so funktioniert eine Diskussion nicht. "Technologisch hintendran"....lässt sich so nicht darstellen. "technologisch" ist schon alleine viel zu komplex, weil es alle Bereiche der GPUs abdeckt. Von der Ip zur Fertigung zur Software etc. In bestimmten Bereichen sind sie voraus, in bestimmten hinterher. Einfach zu sagen sie sind hintendran ist eine einseitige Behauptung.
OIT ist nicht ROV. OIT lässt sich aber mit ROV beschleunigen.
Das mit Project Cars GPU Physx würde mich jetzt auch mal interessieren, wo der Beleg ist. Ich habe auch da bisher nur Behauptungen gesehen. Ich denke schon, dass SlightlyMad viel zugunsten von Nvidia gedreht hat, aber dafür brauchen sie kein GPU-Physx. Da reicht es, die Pipeline mit DrawCalls vollzustopfen. Das ist bei DX11 schlicht kontraproduktiv und spricht nicht für die Fähigkeiten der Entwickler.
Ich kann noch eine Geschichte aus der Vergangenheit zu Nvidias "Praktiken" erzählen:
Ich war einer der Alphatester zu Octane (damals hieß das Ding noch anders). Als Terrence angefangen hat, das Ganze auf CUDA zu programmieren, hat ihm Nvidia ohne zu Zucken und ohne eine Forderung vier Quadros geschickt. Einfach so. Entsprechend hat er natürlich weiterhin eng mit denen kooperiert, woraus ich ihm keinen Vorwurf machen würde. Für eine Firma geht es nicht um Neutralität, sondern um Gewinn. Es gab auch handfeste Vorteile, die für CUDA und gegen OpenCL gesprochen haben (Atomics waren zu Beginn bei OpenCL ein Problem z.B.)
Heute gehört Octane Render zu OTOY. Falls OTOY jemandem noch was sagt...das ist die Firma, mit der AMD 2009 gemeinsam eine Fusion-Render-Cloud aufbauen wollte (Lustig, dass sie schon damals die Namen der AMD-GPUs nicht hinbekommen haben und von Cypruss sprechen...). Offenbar hat sich dann allerdings statt AMD eher Nvidia bereiterklärt die entsprechenden Systeme zu liefern. (Siehe hier ab Minute 8 etwa) Cleverer Schachzug, wohl auch weil das gut in Nvidias Strategie gepasst hat, die Fermis primär als HPC-Beschleuniger zu vermarkten. Inzwischen kooperiert OTOY übrigens mit allen Größen der Branche und setzt in ihren Servern auf Nvidia GPUs.
Das Gute kommt aber zum Schluss: Octane v3 unterstützt nun wohl auch OpenCL. Juhu! Die OTOY-Server dürften aber auf absehbare Zeit weiterhin mit Nvidia-GPUs betrieben werden. AMD hat seine Chance damals vertan, Nvidia hat sie genutzt. So einfach ist das.
Man muss jemandem wie Dade (David Buccarelli) von LuxRender höchsten Respekt zollen, dass er bei OpenCL geblieben ist. Und man sieht heute bei Lux eben, was mit AMDs GPUs möglich ist und vielleicht in anderen Fällen möglich gewesen wäre. Nur hat Lux alleine AMD keine finanziellen Vorteile gebracht. OTOY dagegen hat Nvidia massive finanzielle Vorteile gebracht, die wiederum investiert wurden, um diesen Bereich zu stärken.
AMDs Cycles hatte aufgrund des "Megakernels" ein Problem mit AMDs Compiler (bzw. umgekehrt). AMD hat lange gebraucht, um eigene Leute zu schicken und diesem OS-Projekt zu helfen. Zu lange für mich. Langsam scheint es zu funktionieren. Man ist da offensichtlich ein wenig aufgewacht.
HSA ist auch so eine Baustelle, wo man sich schlicht ein Prestige-Projekt suchen müsste und da massiv investieren sollte. Macht man aber offensichtlich nicht. Man hofft, dass sich das von selbst irgendwie ergibt. Aber so funktioniert diese Industrie nicht. Ich muss Impulse setzen, das können kleine Impulse sein (wie bei Terrence) oder große (wie bei OTOY).
Was ich sagen will: AMD hat in der Vergangenheit manchmal sehr schlechte Entscheidungen getroffen und macht es teils noch heute (Michael Larabel keine Samples zu schicken z.B.)
Nvidia weiß dagegen, wie man sich vermarktet und hat ein klareres Konzept, was die Investitionen in die Zukunft angeht. Da kann AMD einiges lernen (hoffentlich nicht zu viel, sonst haben wir neben dem proprietären Nvidia-Müll bald auch noch proprietären AMD-Müll).
Woerns
Grand Admiral Special
- Mitglied seit
- 05.02.2003
- Beiträge
- 2.983
- Renomée
- 232
Interessant.
Ich habe kürzlich in einem Blog gelesen, dass Nvidia bei OpenCL auf der Version 1.2 stehen geblieben ist. Daher ist es auch kein Wunder, wenn auf Nvidia GPUs CUDA schneller ist.
OpenCL 2.0 enthält übrigens Shared Virtual Memory (SVM) in grober Auflösung obligatorisch (coarse grained) und in feiner Auflösung optional (fine grained). Die Synchronisation des Speichers muss dann nicht mehr der Entwickler bewerkstelligen, sondern sie wird zu bestimmten Zeitpunkten vom Treiber automatisch vorgenommen, der auch selbständig erkennen kann, welche Bereiche überhaupt synchronisiert werden müssen, und unter in der Regel viel schneller ist.
Mit SVM lässt sich sowohl der Speicher verschiedener GPUs synchronisieren als auch Speicher von CPU und GPU. Bei APUs kann der OpenCL Treiber erkennen, dass gar keine Synchronisation vonnöten ist - ein Vorteil, den Nvidia GPUs natürlich nicht ausspielen könnten, selbst wenn sie OpenCL 2.0 unterstützten.
AMD muss Entwicklern rechtzeitig lauffähige Systeme bereitstellen, wie Nvidia es vormacht.
MfG
Ich habe kürzlich in einem Blog gelesen, dass Nvidia bei OpenCL auf der Version 1.2 stehen geblieben ist. Daher ist es auch kein Wunder, wenn auf Nvidia GPUs CUDA schneller ist.
OpenCL 2.0 enthält übrigens Shared Virtual Memory (SVM) in grober Auflösung obligatorisch (coarse grained) und in feiner Auflösung optional (fine grained). Die Synchronisation des Speichers muss dann nicht mehr der Entwickler bewerkstelligen, sondern sie wird zu bestimmten Zeitpunkten vom Treiber automatisch vorgenommen, der auch selbständig erkennen kann, welche Bereiche überhaupt synchronisiert werden müssen, und unter in der Regel viel schneller ist.
Mit SVM lässt sich sowohl der Speicher verschiedener GPUs synchronisieren als auch Speicher von CPU und GPU. Bei APUs kann der OpenCL Treiber erkennen, dass gar keine Synchronisation vonnöten ist - ein Vorteil, den Nvidia GPUs natürlich nicht ausspielen könnten, selbst wenn sie OpenCL 2.0 unterstützten.
AMD muss Entwicklern rechtzeitig lauffähige Systeme bereitstellen, wie Nvidia es vormacht.
MfG
jetzt erzähl aber bitte nicht, dass das deine schlussfolgerung aus dem youtube-video-vergleich eines einzelnen posters im overclockers-forum ist.Sämtliche Messwerte sind im Moment aber anscheinend sowieso fraglich, da Nvidia bei der Bildqualität schummeln soll, was ~10% Performance bringt. Das wirft erneut ein sehr schlechtes Licht auf Nividia.
mariahellwig
Grand Admiral Special
"Technologisch hintendran"....lässt sich so nicht darstellen. "technologisch" ist schon alleine viel zu komplex, weil es alle Bereiche der GPUs abdeckt. Von der Ip zur Fertigung zur Software etc. In bestimmten Bereichen sind sie voraus, in bestimmten hinterher. Einfach zu sagen sie sind hintendran ist eine einseitige Behauptung.
So ist es. Eine Bewertung hängt immer vom persönlichen Fokus ab. Das Problem sind vielmehr die Meinungsmacher, die sich zum Sprecher der Massen ernennen und solche Behauptungen in die Welt setzen. Wenn dieser Unsinn öfter wiederholt wird, bleibt irgendwann etwas hängen.
--- Update ---
HSA ist auch so eine Baustelle, wo man sich schlicht ein Prestige-Projekt suchen müsste und da massiv investieren sollte. Macht man aber offensichtlich nicht.
Denen fehlen schlicht die Ressourcen. AMD hat viel zu viele Baustellen und erledigt alles nur rudimentär. So kann man alles gut, aber für die Spitze reicht es nie. Die letzten 10% kosten häufig 50% mehr Aufwand. Da wirkt vieles dann eben etwas halbherzig.
Locuza
Commodore Special
- Mitglied seit
- 03.03.2011
- Beiträge
- 351
- Renomée
- 3
Du meinst auf den Unsinn, der meistens mit Links und Zitaten untermauert wurde, wo du wie für gewöhnlich nichts hast?Im Moment fehlt mir einfach die Zeit (und Lust), deinen Unsinn erneut zu durchwühlen. Bringt eh nichts, da du scheinbar völlig verbohrt den Nvidia Unsinn auch noch schönredest, auf konkrete Fragen nur ausweichst und nie zugeben würdest, wenn Nvidia technologisch hintendran ist. Und das sind sie seit nunmehr 7 Jahren und dem RV770 von AMD.
Ich weiche auf konkrete Fragen aus? Ich hoffe nicht so extrem häufig wie du.
Du kannst mich gerne noch einmal fragen und versuchen fest zunageln, mit deinen vermutlich leeren Händen wird das leider nicht so gut funktionieren.
Nvidia ist seit 7 Jahren technisch hinter AMD? Beeindruckend, wie einfach und absolut man sich hier ein Urteil machen kann.
Ich will gar nicht wissen, warum z.B. Fermis skalierbares und Geometrie starkes Front-End hier nicht dazu gehört, wo AMD selbst jetzt nach 6 Jahren nicht aufholen konnte.
Der read/write L2-Cache zählt vermutlich ebenso wenig, wie der ECC-Speicherschutz und die Compute-Leistung gegenüber den alten VLIW GPUs von AMD.
Ganz davon ab, dass Fermi die einzige Architektur von allen IHVs ist, welche den Anforderungen von DX12 genügt.
Last but not least, habe ich Nvidia technische Nachteile zugesprochen und umgekehrt AMD technische Vorteile.
Beim unterem Line-Up 750Ti vs. 260X habe ich auch gesagt, dass Maxwell Gen 1 das kleine hässliche Entlein ist, wem FL12.0 und async compute support fehlt.
Ich wiederhole mich hier auch gerne, AMD ist der einzige IHV welcher die FL12.0 Basis bereitstellt und dem wir eine moderne Basis zu verdanken habe.
An der Stelle habe ich auch gesagt, man kann nur froh sein, dass nicht Kepler in die Konsolen gewandert ist, sondern GCN Gen 2.
Ich dachte für Fakten braucht es eindeutige Beweise oder immerhin starke Anhaltspunkte.Halten wir also die Fakten nochmal fest. GCN unterstützt sämtliche DirectX 12 Features bis auf ROVs. ROVs sind im Moment allerdings völlig belanglos, da es sowieso so schnell nicht genutzt werden wird und nur begrenzte Anwendungsfälle gibt.
Sachen die dir chronisch fehlen.
OIT und die volle Kontrolle über das blending.Ist also in keinster Weise ein Argument für Nvidia, da es im wesentlichen um OIT geht, worüber auch Johan Andersson spricht und was AMD unterstützt. ROVs sind mMn einfach das unbedeutendste neue Feature, da es direkt visuell nichts beitragen kann und Performance-/Effizienzgewinne erst noch bewiesen werden müssen.
Deine Meinung ist nett, aber wenn der Technical Director bei der Frostbite Engine sich gerne so etwas wünscht, zweifle ich stark daran, dass es das unbedeutendste neue Features ist.
Laut sebbi gehört es zu den Features, welches am einfachsten in bestehende Engines implementiert werden kann(Wir lesen auch erneut die schöne Passage mit GCN und den Konsolen):
https://forum.beyond3d.com/posts/1851464/DX 12.1 = ROV + conservative rasterization (+ volume tiled resources). I didn't mention these features separately as these features define DX 12.1.
These three are very nice features indeed and allow completely new kinds of approaches to some graphics problems. The problem is that these new approaches are very different from the existing ones, and need big changes to engine architecture. Both next gen consoles are GCN based. Rendering pipelines will be designed around GCN feature set for the following years. Games are not yet even exploiting the GCN feature set fully. Features missing compared to GCN (such as tier 3 resource binding) are likely going to be more relevant in practice than extra (future looking) features.
Hopefully some small indie developer releases a stunning voxel based (PC only) game that requires DX 12.1 (all the new DX 12.1 features are perfect for voxel rendering). This kind of killer app would make DX 12.1 much more relevant. Big studios would never release a game targeting less than 5% of the PC market (and skip the consoles completely).
The only DX 12.1 feature that is easy to plug into most existing engines is ROV. It can used to implement efficient OIT. However ROV is highly useful for many other purposes (especially with CR). ROV is currently supported by Intel Haswell and Broadwell and NVIDIA Maxwell 2. It has the broadest support of all DX 12.1 mandatory features. I expect to see games supporting this feature, even if the rest of the DX 12.1 feature set deems to be too forward looking for cross platform games.
Intel hat es bei ihrem Projekt "Streaming G-Buffer Compression for Multi-Sample Anti-Aliasing" verwendet (Seite 4-5):
https://software.intel.com/sites/default/files/managed/50/32/gbufcomp.pdf
Maxwell Gen 2 unterstützt allerdings async compute, so gerne du es dir auch wünscht, dass sie es nicht tun.FL12.1 ist im Moment daher ziemliches Blendwerk. Nvidia ist deutlich im Nachteil in den kommenden Monaten aufgrund von fehlendem RB Tier 3 und Async Shaders. Es gibt auch kein teilweise bindless. Entweder ist die Architektur bindless oder nicht. AMDs Architektur ist bindless, Nvidias Architektur ist es nicht.
RB3 ist aber ein echter Vorteil, gestützt dank Konsolen.
Sich den stencil wert von Pixelshadern geben zu lassen, soll auch eine nette Funktion sein, welche Nvidia scheinbar nicht bietet.
Und natürlich gibt es teilweise bindless. Tier 1 besteht noch vollkommen aus festen Binding-Slots für alle Ressourcen, Tier 2 dagegen ist bindless bei den shader-resources und Tier 3 eben bei allen.
Natürlich aus DX12 Abstraktionssicht, wo das Limit der Architektur in Wirklichkeit besteht, ist ein anderes Thema.
Schön das du meinen Beitrag so fleißig gelesen hast.Man sieht, dass die Fury X einzig aufgrund des höheren PT sich mehr genehmigen kann. Schraube das PT runter und die Effizienz ist genauso wie bei Nvidia oder gar besser. Genau hier wird auch die Fury Nano ansetzen. Sämtliche Messwerte sind im Moment aber anscheinend sowieso fraglich, da Nvidia bei der Bildqualität schummeln soll, was ~10% Performance bringt. Das wirft erneut ein sehr schlechtes Licht auf Nividia.
Sicherlich ist dir auch nicht die Stelle entgangen, wo das herabsenken des PTs sehr negative Auswirkungen auf die Min-FPS hat und damit praktisch nicht zu gebrauchen ist?
Dagegen es bei Nvidia funktionieren soll, also hat AMD an der Stelle ein Problem und ist weiterhin ineffizienter.
Und Nvidias (noch nicht faktisch belegte) Schummelei gilt vermutlich spieleübergreifend und kostet dann vermutlich auch im Schnitt 10% Performance oder gilt das nur für BF4, welches ich glaube Toms Hardware nicht getestet hat?
Natürlich wäre es auch interessant zu wissen woher ~10% kommen, warum nicht 5 oder 50%?
Manche Menschen scheinen einfach lieber ertrinken zu wollen.Alles was bisher zu Project Cars bekannt ist, es verwendet CPU und GPU PhysX. Irgendwelche dubiosen und nicht nachvollziehbaren Forenbeiträge helfen auch nicht, um mehr Erkenntnisse zu gewinnen
Ein Slightly-Mad-Mitarbeiter sagt, sie verwenden kein GPU-PhysX, Nvidia sagt es wird keins verwendet, User-Tests, PCGH und Golem bescheinigen keine Verwendung von GPU-PhysX, die man aufgrund unterschiedlicher Performance und/oder Auslastung gesehen hätte.
Nope, dass zählt alles nicht.
Ich habe von Anfang an gesagt, du kannst gerne HairWorks als Beispiel nehmen, aber nicht Project Cars, weil es außer CPU-PhysX nichts von Nvidia direkt verwendet.Aber das Thema war eh längst ad acta gelegt. Es ging nur darum, dass du begreifst, welche negativen Auswirkungen Nvidias Spielchen auf uns User immer wieder haben und dass sie dafür weiterhin scharf kritisiert werden. Das hast du hoffentlich getan.
Ich kann einem Spiel oder Nvidia nur dann etwas vorwerfen, wenn ich valide Anhaltspunkte dafür habe, die habe ich jedenfalls bei Project Cars im Falle von Nvidia nicht gefunden.
Bei HairWorks spielen dagegen schon, Faktor 64 bei der Tessellation bringt keinen optischen Vorteil, verbrennt unnütz Ressourcen.
Dazu ist die Lösung allgemein technisch schlecht, OIT wird nicht geboten, ein Master/Slave System für die Haarsträhnen ebenso wenig, dazu werden Geometry-Shader + Tessellation verwendet, was alles suboptimale Performance ergibt und die gesamte Shader-Pipeline verwendet.
Bei HairWorks kann ich also gerne ein Check hinsetzen, bei anderen Dingen aber nicht zweifelsfrei.
Gott behüte wenn etwas von Nvidia verwendet wird und es Probleme gibt, dann weiß schon eine kleine Armee eindeutig Bescheid, wer oder was Schuld ist.
Wenn y33H@ für dich eine Quelle sein soll, bitteschön. Für mich ist er das nicht, da er unzählige Male unter Beweis gestellt hat, wie unglaubwürdig, unsachlich und voreingenommen er ist.
Ich hoffe in deinem Unterhalt gibt es einen Spiegel.
Praktisch schon, denn wie ich gleich am Anfang gesagt habe, gab es die Spec praktisch zuvor bei eDP, wo es aber keiner verwendet hat.Die Adaptive Sync Spezifikation gab es schon bevor Nvidia G-Sync vorgestellt hat. Also nein, G-Sync war nicht die erste Lösung für dynamischen Refresh Raten.
Und erst nach G-Sync wurde der Spec-Anteil auch bei DP verankert.
Insofern war und ist G-Sync die erste Lösung, welche bei Monitoren einen dynamischen Refresh geboten hat.
Zuletzt bearbeitet:
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
@Locuza
Lass es einfach gut sein. Dein permanentes Zerpflücken von Beiträgen ist so nervend wie sinnfrei. Vor allem dann, wenn du alles ignorierst, was dir nicht gefällt, und Sachen einfach als Fakt hinstellst, die gar keine sind. Laut Tests gibt es zB sehr wohl einen Unterschied in Project Cars zwischen CPU- und GPU-PhysX. Es ist einfach nur ignorant zu behaupten, Tests hätten bewiesen, dass kein GPU-PhysX verwendet werden würde. Das haben sie nämlich keineswegs. Mit Links untermauerst du auch nichts. Wenn du zB behauptest, Nvidia würde Async Shaders unterstützen, dann ist das einfach nur Wunschdenken deinerseits, ohne jegliche handfeste Quelle. Du scheinst auch gar nicht zu verstehen, was andere sagen. ZB Johan Andersson sprach von OIT, nicht von ROVs. Und nein, deine Behauptung zu G-Sync ist immer noch falsch. Die Adaptive Sync Spezifikation gab es vor G-Sync. Wann diese in den VESA Standard aufgenommen wurde, ist irrelevant. Schliesslich ist G-Sync bis heute kein Bestandteil des VESA Standards. An meinen Aussagen ändert sich daher nichts. Solange du sie nicht widerlegen kannst, bleiben sie bestehen.
Lass es einfach gut sein. Dein permanentes Zerpflücken von Beiträgen ist so nervend wie sinnfrei. Vor allem dann, wenn du alles ignorierst, was dir nicht gefällt, und Sachen einfach als Fakt hinstellst, die gar keine sind. Laut Tests gibt es zB sehr wohl einen Unterschied in Project Cars zwischen CPU- und GPU-PhysX. Es ist einfach nur ignorant zu behaupten, Tests hätten bewiesen, dass kein GPU-PhysX verwendet werden würde. Das haben sie nämlich keineswegs. Mit Links untermauerst du auch nichts. Wenn du zB behauptest, Nvidia würde Async Shaders unterstützen, dann ist das einfach nur Wunschdenken deinerseits, ohne jegliche handfeste Quelle. Du scheinst auch gar nicht zu verstehen, was andere sagen. ZB Johan Andersson sprach von OIT, nicht von ROVs. Und nein, deine Behauptung zu G-Sync ist immer noch falsch. Die Adaptive Sync Spezifikation gab es vor G-Sync. Wann diese in den VESA Standard aufgenommen wurde, ist irrelevant. Schliesslich ist G-Sync bis heute kein Bestandteil des VESA Standards. An meinen Aussagen ändert sich daher nichts. Solange du sie nicht widerlegen kannst, bleiben sie bestehen.
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Aber lediglich für eDP, weil die VESA dabei Stromsparen im Sinn hatte und nicht die Bekämpfung von Tearing. Variable Refreshrates für externe Monitore (mit DP-Anschluss) zu diesem Zweck verfügbar zu machen, ist tatsächlich ein Verdienst von nVidia; obgleich kein verdienstvoller, weil G-Sync unter Verschluss gehalten wurde und noch immer wird. Insofern können wir dankbar sein, dass die VESA rasch nachgezogen hat. AMD hat mit seinem Logo-Programm namens FreeSync sicher wesentlich dazu beigetragen den Prozess bei der VESA zu beschleunigen. nVidia hat die Lücke jedoch als Erster erkannt und zu nutzen gewusst. Das lässt sich leider nicht bestreiten.Die Adaptive Sync Spezifikation gab es vor G-Sync.
Locuza
Commodore Special
- Mitglied seit
- 03.03.2011
- Beiträge
- 351
- Renomée
- 3
Zeig doch wenigstens einmal etwas Anstand und Würde.@Locuza
Lass es einfach gut sein. Dein permanentes Zerpflücken von Beiträgen ist so nervend wie sinnfrei. Vor allem dann, wenn du alles ignorierst, was dir nicht gefällt, und Sachen einfach als Fakt hinstellst, die gar keine sind. Laut Tests gibt es zB sehr wohl einen Unterschied in Project Cars zwischen CPU- und GPU-PhysX. Es ist einfach nur ignorant zu behaupten, Tests hätten bewiesen, dass kein GPU-PhysX verwendet werden würde. Das haben sie nämlich keineswegs. Mit Links untermauerst du auch nichts. Wenn du zB behauptest, Nvidia würde Async Shaders unterstützen, dann ist das einfach nur Wunschdenken deinerseits, ohne jegliche handfeste Quelle. Du scheinst auch gar nicht zu verstehen, was andere sagen. ZB Johan Andersson sprach von OIT, nicht von ROVs. Und nein, deine Behauptung zu G-Sync ist immer noch falsch. Die Adaptive Sync Spezifikation gab es vor G-Sync. Wann diese in den VESA Standard aufgenommen wurde, ist irrelevant. Schliesslich ist G-Sync bis heute kein Bestandteil des VESA Standards. An meinen Aussagen ändert sich daher nichts. Solange du sie nicht widerlegen kannst, bleiben sie bestehen.
Es ist einfach grauenvoll deine Ignoranz immer wieder aufs neuste erleben zu müssen und dann noch Vorwürfe zu lesen, die nicht zutreffen, außer auf dich selber.
Ich habe dir zu Project Cars zwei offizielle Aussagen, ein (zwei) journalistische Befunde und ein Haufen User-Tests verlinkt.
Du hast an der Stelle wenig bis nichts geliefert.
Sehr wahrscheinlich nur Verschwörungstheorien und falsche Zahlen von ebenso Usern.
Warum sie falsch sind, weil ich mich lieber an seriöse Anhaltspunkte orientiere und das sind Publikationen, wo ich eher davon ausgehen kann das erfahrene Leute testen und das dabei noch Aussagen vom Entwickler und Nvidia fielen, dass GPU-PhysX nicht eingesetzt wird.
Du wirfst mir vor ich habe keine handfesten Fakten für den Async Shader Support von Nvidia geliefert, weil der Anandtech Artikel ohne Überraschung nicht legit ist, aber selber hast du natürlich nichts auf der Hand, was den fehlenden Support von Async Shaders beweist, verkaufst es aber ebenso fleißig, wie du mir vorwirfst, ich mache es.
Und bei Johan Andersson bist du derjenige der nicht versteht, was andere sagen:
PixelSync == ROVChris: Exciting, okay cool. Obviously you have a direct line to these hardware vendors. What do you want to see in the next generation of GPUs that’ll make your job easier?
Johan: That's a fun question. We have a pretty long list of all the stuff we typically go through and then talk to them with, but one very concrete thing we’d like to see, and actually Intel has already done this on their hardware, they call it PixelSync, which is their method of synchronizing the graphics pipeline in a very efficient way on a per-pixel basis.You can do a lot of cool techniques with it such as order-independent transparency for hair rendering or for foliage rendering. And they can do programmable blending where you want to have full control over the blending instead of using the fixed-function units in the GPU. There’s a lot of cool components that can be enabled by such a programability primitive there and I would like to see AMD and Nvidia implement something similar to that as well.
Die Behauptung zu G-Sync ist nicht falsch. Es ist nämlich praktisch irrelevant seit wann die Spec existiert, sondern wann eine Lösung wirklich realisiert wurde.
Und G-Sync kam als erster auf den Markt, welcher Produkte mit adaptive refresh angeboten hat.
Davor hat es niemand umgesetzt, davor war es kein Thema, davor konnte es niemand kaufen.
Und allgemein spare ich mir in Zukunft den Aufwand dir irgendetwas beweisen zu wollen, habe ich die letzten Seiten getan, dass alberne Resultat sehe ich entsprechend.
Zuletzt bearbeitet:
y33H@
Admiral Special
- Mitglied seit
- 16.05.2011
- Beiträge
- 1.768
- Renomée
- 10
Du nennst den Quatsch bei Reddit "Tests"? Ich nicht.Laut Tests gibt es zB sehr wohl einen Unterschied in Project Cars zwischen CPU- und GPU-PhysX.
Hier hast du Links:Es ist einfach nur ignorant zu behaupten, Tests hätten bewiesen, dass kein GPU-PhysX verwendet werden würde. Das haben sie nämlich keineswegs. Mit Links untermauerst du auch nichts.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10620545&postcount=1930
http://extreme.pcgameshardware.de/n...test-geforce-top-radeon-flop.html#post7370903
Mente
Grand Admiral Special
- Mitglied seit
- 23.05.2009
- Beiträge
- 3.671
- Renomée
- 135
- Aktuelle Projekte
- constalation astroids yoyo
- Lieblingsprojekt
- yoyo doking
- Meine Systeme
- Ryzen 3950x
- BOINC-Statistiken
- Prozessor
- AMD 5800X3D
- Mainboard
- Asus ROG Crosshair VIII Dark Hero
- Kühlung
- Headkiller IV
- Speicher
- 3800CL14 G.Skill Trident Z silber/rot DIMM Kit 32GB, DDR4-3600, CL15-15-15-35 (F4-3600C15D-16GTZ)
- Grafikprozessor
- AMD Radeon RX 6900 XT Ref. @Alphacool
- Display
- MSI Optix MAG27CQ
- SSD
- SN8502TB,MX5001TB,Vector150 480gb,Vector 180 256gb,Sandisk extreme 240gb,RD400 512gb
- HDD
- n/a
- Optisches Laufwerk
- n/a
- Soundkarte
- Soundblaster X4
- Gehäuse
- Phanteks Enthoo Pro 2 Tempered Glass
- Netzteil
- Seasonic Prime GX-850 850W
- Tastatur
- Logitech G19
- Maus
- Logitech G703
- Betriebssystem
- Win 10 pro
- Webbrowser
- IE 11 Mozilla Opera
- Verschiedenes
- Logitech PRO RENNLENKRAD DD
Hi
also Zitat:
"Praktisch schon, denn wie ich gleich am Anfang gesagt habe, gab es die Spec praktisch zuvor bei eDP, wo es aber keiner verwendet hat.
Und erst nach G-Sync wurde der Spec-Anteil auch bei DP verankert.
Insofern war und ist G-Sync die erste Lösung, welche bei Monitoren einen dynamischen Refresh geboten hat. "
das ist einfach falsch da es nur die Nutzung einer schon bestehenden Laptop Technologie war und ist, die "künstlich" aufgebaut wurde und gar nicht zu dem Passt was hier "andichtet" wird.
Es gab schon weit vor G Sync die Withe Paper die das beinhalteten ....
Auch hier gilt nicht alles glauben was man irgendwo ließt.
NV hat es geschaft ihr Marke so zu positionieren wie Intel, egal was sie tun es gibt immer einen Grund und das "vertauen" es zu kaufen egal was die Konkurenz macht und kann. Sieht man sehr schön am Markt und auch in der Vergangenheit, es traut halt jeder der marke im schnitte mehr zu, das lässt sich nicht so einfach "abstellen" .
lg
also Zitat:
"Praktisch schon, denn wie ich gleich am Anfang gesagt habe, gab es die Spec praktisch zuvor bei eDP, wo es aber keiner verwendet hat.
Und erst nach G-Sync wurde der Spec-Anteil auch bei DP verankert.
Insofern war und ist G-Sync die erste Lösung, welche bei Monitoren einen dynamischen Refresh geboten hat. "
das ist einfach falsch da es nur die Nutzung einer schon bestehenden Laptop Technologie war und ist, die "künstlich" aufgebaut wurde und gar nicht zu dem Passt was hier "andichtet" wird.
Es gab schon weit vor G Sync die Withe Paper die das beinhalteten ....
Auch hier gilt nicht alles glauben was man irgendwo ließt.
NV hat es geschaft ihr Marke so zu positionieren wie Intel, egal was sie tun es gibt immer einen Grund und das "vertauen" es zu kaufen egal was die Konkurenz macht und kann. Sieht man sehr schön am Markt und auch in der Vergangenheit, es traut halt jeder der marke im schnitte mehr zu, das lässt sich nicht so einfach "abstellen" .
lg
Zuletzt bearbeitet:
so wie deine aussagen ...Solange du sie nicht widerlegen kannst, bleiben sie bestehen.
mich würde immer noch brennend interessieren, woher du die gewissheit nimmst, dass a) nvidia schummelt und dass das b) 10% performance bringt. sagt dir das deine kristallkugel oder hast du die zahl ausgewürfelt?Sämtliche Messwerte sind im Moment aber anscheinend sowieso fraglich, da Nvidia bei der Bildqualität schummeln soll, was ~10% Performance bringt.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Mieser Diskussionsstil. Unter der Würde jedes hier mitlesenden und an technischen Infos Interessierten und mit einem erschreckenden Mangel an Anstand. Offensichtlich beschreibst du deine eigenen Beiträge wie ich dem Zitat hier entnehme.Zeig doch wenigstens einmal etwas Anstand und Würde.
Es ist einfach grauenvoll deine Ignoranz immer wieder aufs neuste erleben zu müssen und dann noch Vorwürfe zu lesen, die nicht zutreffen, außer auf dich selber.
Wo ist da das Argument? Willst du damit sagen dies stimmt nicht?Aber lediglich für eDP, weil die VESA dabei Stromsparen im Sinn hatte und nicht die Bekämpfung von Tearing.
gruffi schrieb:Die Adaptive Sync Spezifikation gab es vor G-Sync.
Locuza
Commodore Special
- Mitglied seit
- 03.03.2011
- Beiträge
- 351
- Renomée
- 3
Ich kann nicht nachvollziehen warum das Diskussionsobjekt ständig verschoben wird, auf Dinge die ich auch selber gleich am Anfang genannt habe.das ist einfach falsch da es nur die Nutzung einer schon bestehenden Laptop Technologie war und ist, die "künstlich" aufgebaut wurde und gar nicht zu dem Passt was hier "andichtet" wird.
Es gab schon weit vor G Sync die Withe Paper die das beinhalteten ....
Auch hier gilt nicht alles glauben was man irgendwo ließt.
Mein originaler Beitrag war folgender:
http://www.planet3dnow.de/vbulletin/threads/422742-Warum-ist-Nvidias-Performance-Watt-besser?p=5023543&viewfull=1#post5023543Bei G-Sync verstehe ich teilweise die Herangehensweise von Nvidia, aber außerhalb davon stellt Nvidia ihr hässliches Geschäftsgesicht zur Schau.
Es war übrigens G-Sync die erste Lösung mit dynamischen Refresh bei Monitoren.
Davor gab es zwar die eDP-Spec, aber dort wurde die Fähigkeit von keinem ausgenutzt.
Und ich sehe bei meiner Behauptung auch nichts falsches.
Mitlesende die an technischen Infos interessiert sind, mögen keine Links und Zitate, sondern brauchen unfundierte Behauptungen mit Vorwürfen gegenüber Verrückten, die sich die Mühe geben ihre Beiträge mit einer darauf basierenden Grundlage zu präsentieren.Mieser Diskussionsstil. Unter der Würde jedes hier mitlesenden und an technischen Infos Interessierten und mit einem erschreckenden Mangel an Anstand. Offensichtlich beschreibst du deine eigenen Beiträge wie ich dem Zitat hier entnehme.
Danke Complicated, dein Feedback wird eingearbeitet.
Auf das mein mieser Diskussionsstil besser wird.
mariahellwig
Grand Admiral Special
Um die allgemeine Frage nach Energieffizienz beurteilen zu können, benötigt man ein Szenario welches halbswegs frei von Fremdeinflüssen ist. Meiner Meinung nach kommt da nur die Rohleistung in Betracht. Alles andere kann von Treiberrelease zu Treiberrelease, von Schnittstelle zu Schnittstelle, von Spiel zu Spiel variieren und führt nur zu endlosen Diskussionen.
Betracht ich dazu die FuryX dann komme ich
275W / 8,6 TFLOP = 31,97W/TFLOP
Für eine GTX 980TI errechne ich
250W / 7 TFLOP = 35,71W/TFLOP
Das die Rohleistung nur bedingt etwas mit Anwendungsperformance zu tun hat, dürfte jedem klar sein und muss nicht weiter diskutiert werden.
Die Fragestellung müsste deshalb eigenltich lauten, warum davon in Anwendungen weniger ankommt. DX-Features oder G-Sync-Diskussionen sind da wenig hilfreich und zeigen mehr einen Diskussionsstil aus dem Kindergarten.
Betracht ich dazu die FuryX dann komme ich
275W / 8,6 TFLOP = 31,97W/TFLOP
Für eine GTX 980TI errechne ich
250W / 7 TFLOP = 35,71W/TFLOP
Das die Rohleistung nur bedingt etwas mit Anwendungsperformance zu tun hat, dürfte jedem klar sein und muss nicht weiter diskutiert werden.
Die Fragestellung müsste deshalb eigenltich lauten, warum davon in Anwendungen weniger ankommt. DX-Features oder G-Sync-Diskussionen sind da wenig hilfreich und zeigen mehr einen Diskussionsstil aus dem Kindergarten.
Zuletzt bearbeitet:
Locuza
Commodore Special
- Mitglied seit
- 03.03.2011
- Beiträge
- 351
- Renomée
- 3
Die Rohleistung fiktiv ohne Software-Einflüsse zu betrachten ist aber extrem hypothetisch.
Die Architekturen unterscheiden sich, weswegen sich zwanghaft Stärken und Schwächen ergeben und man nie eindeutig die Rohleistung als Maßstab nehmen kann.
Ebenso steht die angegebene TPD der Hersteller auf wackeligen Beinen.
Die Architekturen unterscheiden sich, weswegen sich zwanghaft Stärken und Schwächen ergeben und man nie eindeutig die Rohleistung als Maßstab nehmen kann.
Ebenso steht die angegebene TPD der Hersteller auf wackeligen Beinen.
mariahellwig
Grand Admiral Special
Letztlich zählt aber Rechenleistung. Und zwar die, die ich im Idealfall erzielen kann. Nämlich die, die frei von Einflüssen ist.
Dass es durch die unterschiedlichen Archtitekturen nVidia vielleicht leichter fällt, die Leistung in Anwendungsfällen abzurufen ist eine andere Sache. Ist aber auch nur eine Momentaufnahme.
Persönlich glaube ich, dass es bei AMD Geschäftsstrategie ist, die letzte 10-20% zu verschenken, weil die Erschließung überproportional viele Ressourcen benötigt. AMD setzt auf ein breites Produktportfolio und somit auf viele Baustellen. Das ist eine zwiespältige Kiste. Zum einen ist man unempfindlicher, wenn aktuelle Trends mal wechseln, auf der anderes Seite wollen die Kunden makellose Produkte. nVidia hat bei der GTX970 das Speicherproblem nicht ohne Grund verschwiegen.
Dass es durch die unterschiedlichen Archtitekturen nVidia vielleicht leichter fällt, die Leistung in Anwendungsfällen abzurufen ist eine andere Sache. Ist aber auch nur eine Momentaufnahme.
Persönlich glaube ich, dass es bei AMD Geschäftsstrategie ist, die letzte 10-20% zu verschenken, weil die Erschließung überproportional viele Ressourcen benötigt. AMD setzt auf ein breites Produktportfolio und somit auf viele Baustellen. Das ist eine zwiespältige Kiste. Zum einen ist man unempfindlicher, wenn aktuelle Trends mal wechseln, auf der anderes Seite wollen die Kunden makellose Produkte. nVidia hat bei der GTX970 das Speicherproblem nicht ohne Grund verschwiegen.
Zuletzt bearbeitet:
Locuza
Commodore Special
- Mitglied seit
- 03.03.2011
- Beiträge
- 351
- Renomée
- 3
Die Rechenleistung ist allerdings abhängig von der konkreten Verwendung, da jede Architektur gewisse Limitierungen aufweist, welche einen daran hindern das theoretische Maximum zu erreichen.
Bei Kepler besteht, soweit ich keinen Unsinn erzähle, eine Limitierung beim Register-File zu den 192-ALUs, die dazu führt das es unmöglich ist unter Voll-Last alle 192 ALUs auszulasten.
Selbst wenn es eine Code-Sequenz gibt, welches das Shader-Array ideal ausnutzt, fehlt uns der nötige Praxisbezug für die Realität und daneben auch die Verbrauchswerte.
Und je nach Anwendung wird entsprechend das Front-End und die fixed-function-blöcke belastet, was außerhalb der Rechenleistung ebenso zur finalen Endleistung und Effizienz beiträgt.
Bei AMD herrscht vor allem ein Geld-Problem, welches zu fehlender Manpower und anschließend relativ schwacher Software gegenüber der Konkurrenz führt.
Das der Treiber bei AMD nicht ganz mitkommt, konnte man die letzten Jahre dank zahlreicher Daten ableiten und sebbi als Entwickler sagt auch, dass das eine Stelle weiter beim Shader-Compiler Probleme zu finden sind:
Mit dem nötigen Kapital könnte AMD bestimmt ihre Performance und letztendlich auch Performance/Watt verbessern.
Ich bin an der Stelle natürlich auch gespannt, wie sich die Anwendungseffizienz mit DX12 bei AMD vs. Nvidia verschiebt.
Bei Kepler besteht, soweit ich keinen Unsinn erzähle, eine Limitierung beim Register-File zu den 192-ALUs, die dazu führt das es unmöglich ist unter Voll-Last alle 192 ALUs auszulasten.
Selbst wenn es eine Code-Sequenz gibt, welches das Shader-Array ideal ausnutzt, fehlt uns der nötige Praxisbezug für die Realität und daneben auch die Verbrauchswerte.
Und je nach Anwendung wird entsprechend das Front-End und die fixed-function-blöcke belastet, was außerhalb der Rechenleistung ebenso zur finalen Endleistung und Effizienz beiträgt.
Bei AMD herrscht vor allem ein Geld-Problem, welches zu fehlender Manpower und anschließend relativ schwacher Software gegenüber der Konkurrenz führt.
Das der Treiber bei AMD nicht ganz mitkommt, konnte man die letzten Jahre dank zahlreicher Daten ableiten und sebbi als Entwickler sagt auch, dass das eine Stelle weiter beim Shader-Compiler Probleme zu finden sind:
https://forum.beyond3d.com/threads/amd-pirate-islands-r-3-series-speculation-rumor-thread.55600/page-64#post-1846917The AMD shader compiler is the biggest issue for GCN on PC. Current generation consoles have roughly the same GPU architecture as the AMD PC GPUs, making it easy for the developers to compare the compiler results (instruction counts, GPR counts, etc). A new (fully rewritten) shader compiler would be a big step in catching up with NVIDIA.
Mit dem nötigen Kapital könnte AMD bestimmt ihre Performance und letztendlich auch Performance/Watt verbessern.
Ich bin an der Stelle natürlich auch gespannt, wie sich die Anwendungseffizienz mit DX12 bei AMD vs. Nvidia verschiebt.
Zuletzt bearbeitet:
mariahellwig
Grand Admiral Special
Ob der Shader-Compiler ein Problem ist, kann ich nicht beurteilen. Fakt ist aber, sollte dies so sein, wird das Problem auch unter DX12 erhalten bleiben. Allerdings wird sich die Zahl der Baustellen drastisch verringern, da die neueren Schnittstellen alle auf HLSL setzen. Die Ressourcen für die OpenGL und GLSL kann künftig anderweitig verwenden.
AMD hat in den letzten Monaten viel Grundlagenarbeit geleistet, allen voran in neue Schnittstellen. Man hat dafür viele Ressourcen abgestellt, Verbesserungen die allen zu gute kommen. Ich finde, das sollte man auch mal Anerkennen und mal darüber hinwegsehen, wenn andere Dinge dafür etwas liegen geblieben sind. Mich nervt diese Herumreiten auf Zahlen etwas an, weil die wirklich wichtigen Dinge darin komplett untergehen.
AMD hat in den letzten Monaten viel Grundlagenarbeit geleistet, allen voran in neue Schnittstellen. Man hat dafür viele Ressourcen abgestellt, Verbesserungen die allen zu gute kommen. Ich finde, das sollte man auch mal Anerkennen und mal darüber hinwegsehen, wenn andere Dinge dafür etwas liegen geblieben sind. Mich nervt diese Herumreiten auf Zahlen etwas an, weil die wirklich wichtigen Dinge darin komplett untergehen.
Sehe ich ähnlich. AMD hat endlich erkannt, dass zu guter Hardware auch eine gute Software-Infrastruktur gehört. Gleichzeitig sind beinahe alle Bemühungen der letzten Monate (Mantle als Basis für NextGen-APIs, OpenCL, HSA, AdaptiveSync, TressFX) für alle nützlich, nicht nur AMD-Nutzer. Bei Nvidia wird's zappenduster, wenn man sich mal fragt, was von den Sachen, die die entwickeln eigentlich allgemein dem PC nützt und was nur Nvidia-Nutzern.
Locuza
Commodore Special
- Mitglied seit
- 03.03.2011
- Beiträge
- 351
- Renomée
- 3
@ mariahellwig
Vulkan wird zuerst nur GLSL supporten, wobei man hoffen könnte, dass jemand sich berufen fühlt ein HLSL Front-End zu bauen.
AMD hat natürlich stark zum Ökosystem beigetragen, dass hilft leider AMD relativ wenig und dem Kunden am Ende ebenso.
Entsprechend zählt weiterhin nur das was auf dem Teller landet und dort hat AMD noch viele Probleme zu lösen.
@ isigrim
Ich denke bei einer Skala von abgeschottet bis offen steht Nvidia relativ schlecht dar, aber sie haben ein Ökosystem aufgebaut, wo die Konkurrenz erst einmal etwas gleichwertiges bieten muss.
Da Nvidia weiterhin sehr gut verdient, AMD weiterhin Verluste schreibt, wird sich daran wohl vorerst nichts ändern.
Intel wird vielleicht irgendwann präsenter.
Sie haben ihre iGPUs stark verbessert und auch schon einige coole Software-Sachen und Hardware-Innovationen geliefert.
Wobei bei deren potentiellen Ressourcen, dass vielleicht auch eher als schwach angesehen werden kann.
Vulkan wird zuerst nur GLSL supporten, wobei man hoffen könnte, dass jemand sich berufen fühlt ein HLSL Front-End zu bauen.
AMD hat natürlich stark zum Ökosystem beigetragen, dass hilft leider AMD relativ wenig und dem Kunden am Ende ebenso.
Entsprechend zählt weiterhin nur das was auf dem Teller landet und dort hat AMD noch viele Probleme zu lösen.
@ isigrim
Ich denke bei einer Skala von abgeschottet bis offen steht Nvidia relativ schlecht dar, aber sie haben ein Ökosystem aufgebaut, wo die Konkurrenz erst einmal etwas gleichwertiges bieten muss.
Da Nvidia weiterhin sehr gut verdient, AMD weiterhin Verluste schreibt, wird sich daran wohl vorerst nichts ändern.
Intel wird vielleicht irgendwann präsenter.
Sie haben ihre iGPUs stark verbessert und auch schon einige coole Software-Sachen und Hardware-Innovationen geliefert.
Wobei bei deren potentiellen Ressourcen, dass vielleicht auch eher als schwach angesehen werden kann.
mariahellwig
Grand Admiral Special
Sehe ich ähnlich. AMD hat endlich erkannt, dass zu guter Hardware auch eine gute Software-Infrastruktur gehört. Gleichzeitig sind beinahe alle Bemühungen der letzten Monate (Mantle als Basis für NextGen-APIs, OpenCL, HSA, AdaptiveSync, TressFX) für alle nützlich, nicht nur AMD-Nutzer. Bei Nvidia wird's zappenduster, wenn man sich mal fragt, was von den Sachen, die die entwickeln eigentlich allgemein dem PC nützt und was nur Nvidia-Nutzern.
AMD hat dies aber nicht aus reiner Nächstenliebe getan, sondern Landschaft auszumisten, weil AMD mit seinen Ressourcen diesen Wildwuchs nicht mehr bedienen kann. Trotz allem stellt das für dem Endkunden einen enormen Fortschritt dar.
Das es solange gedauert hat, haben sich die Kunden aber selbst zuzuschreiben. Sie entscheiden sich bei ihrer Produktwahl kurzsichtig und nicht strategisch. Und meist lassen sie sich auch von irgendwelchen Meinungsmachern welche Punkte wichtig sind und welche nicht. Und meist sind die wichtigen genau die in denen nVidia oder Intel stark ist. Das nennt man PR-Arbeit.
Ich finde AMD agiert gegenwärtig recht geschickt. Wie man die großen dort hinbekommt wo man sie hinhaben will, verdient schon Respekt. Nämlich an einen Ort, wo man mit wenig Ressourcen viel leisten kann.
Ähnliche Themen
- Antworten
- 611
- Aufrufe
- 46K
- Antworten
- 2K
- Aufrufe
- 133K
- Antworten
- 680
- Aufrufe
- 88K
- Antworten
- 1
- Aufrufe
- 5K
- Antworten
- 0
- Aufrufe
- 1K