NVIDIA - Kepler

Sicherlich kann die Titan die GTX690 ersetzen, spätestens mit halbiertem Speicher und einer Kühlung die den Dauer Turbo auf hohem Niveau zuläßt, die Preisfrage ist nur ob sie es auch wird.
Die GPU hat einfach das Potential in der Herstellung teurer zu kommen als 2 kleine.
 
Sicherlich kann die Titan die GTX690 ersetzen, spätestens mit halbiertem Speicher und einer Kühlung die den Dauer Turbo auf hohem Niveau zuläßt, die Preisfrage ist nur ob sie es auch wird.
Die GPU hat einfach das Potential in der Herstellung teurer zu kommen als 2 kleine.

so kompliziert war das gar nicht gedacht. ich quote mich mal passend dazu aus dem 3DC-thread.

ich war schon immer so eingestellt, dass mir spielgefühl "vor" frames geht. nur manchmal braucht man einfach mehr bums; allerdings ist das anwendungsgebiet bei MGPU zu beschränkt. das deckt im 24/7 -einsatz nur teilbereiche zufriedenstellend ab.

btw,
ich habe das zweifelhafte glück, dass hier von beamern bis TFTs und fernsehern alles auf FHD ausgerichtet ist. bissl 3DV dazu und natürlich schnelle schaltzeiten plus steinzeit-eingabegeräte -> immersion! und das auch mit der derzeit schnellsten single-GPU-karte.

in den ersten testläufen heute nacht habe ich bewusst gespielt und OSDs ausgelassen - das spielgefühl ist gut.

und wenn ein C3 nicht mit 8xMSAA + SSAA oder sonstwelchem brimborium läuft, dann ist das halt so. eine hohe einstellung mit AFR-stottern bei fixer FHD-auslösung ist für mein dafürhalten eher ein immersionskiller, als ne gemäßigte einstellung, die auf beiden lösungen läuft. und selbst wenn SGPU in jener dann nur mit 50fps rumkrebst, während MGPU noch 70fps schafft, so fühlen sich letztere nicht zwingend besser an. und das ist nunmal die krux.

edit:

beispiel bf3 letzte nacht:

2013-03-03 05:50:29 - bf3 (Karkand, 4xMSAA, ultra but FXAA low, Titan)
Frames: 6051 - Time: 55817ms - Avg: 108.408 - Min: 75 - Max: 141

so fühlen sich 75 minframes an? GEILO!!!!

aber moment.. *gtx690* rauskramt..

vergleichbares hatte ich doch vorher auch.. im januar schon..

2013-01-17 00:34:17 - bf3 (Karkand, 4xMSAA, ultra but FXAA low, GTX690)
Frames: 7603 - Time: 68157ms - Avg: 111.551 - Min: 79 - Max: 198

trotzdem, sowas von unterschiedlich im "gefühl" - 1:0 für titan. auf meiner strichliste... ;-)




(..)

mfg
tobi



(..)

mfg
tobi
 
Zuletzt bearbeitet:
Wie schön das Gefühle nicht messbar sind, allenfalls blendbar ;)

doch, vor dem AFR-kontext sind sie es (messbar) - nur erfordert es (das messen) einigen aufwand.
PC-perspective haben sich die arbeit gemacht - mit leicht vernichtendem ergebnis für crossfire.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9665219#post9665219

und selbst printmedien sind allmählich bei ihren tests dazu übergegangen, subjektives stottern zu bewerten. PCGH
hat z.b. drei stufen.. von slight über moderate zu heavy -stuttering.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Viel Spaß mit der Karte. Und ich bin mir sicher das man den hat wenn man die Spiele dafür zockt.
 
Gefühle sind niemals messbar ;) Was messbar ist sind die Latenzen zwischen den einzelnen Frames bzw deren Abstände. Wie das aber jeder einzelne empfindet lässt sich nicht darlegen.

Die Abstände sollte allerdings hier und da schon dargestellt werden.
 
problem an der "messung" ist, dass auch frames gezählt werden, die nicht gezählt werden dürften, weil sie nicht sichbar sind.

warum habe ich wohl ins 3DC verlinkt -> weil es eben nicht trivial ist einen nachweis für ein schwaches spielgefühl zu erbringen. fraps starten und meinetwegen die frametimes auszuwerten täuscht über das eigentlich störende hinweg.


(..)

mfg
tobi
 
Ich dachte, es wäre inzwischen auch beim Mädchen vom Land angekommen, dass man SingleGPU-Setups nicht mit MultiGPU-Setups vergleichen sollte....auch wenn Nvidia inzwischen viel verbessert hat was SLI angeht. (Crossfire ist sowieso nur eine Prothese...)
Dieser MultiGPU-Irrsinn verdankt sich ja auch nur der Benchmarkgeilheit, oder? Also ich glaube nach wie vor nicht, dass man zwischen 60 und 120 Bilder pro sekunde unterscheiden kann, wenn die Min Frames nicht unter 35 sinken, aber gut, sei´s drum. Möglicherweise bin ich auch bloß neidisch, dass ich nicht die Zeit habe, solche Benchmarks durchzuführen.

Ich will hier aber noch einwerfen, dass ich nicht sehe, wieso ein defizitäres Unternehmen wie AMD sich auf derartige Spielereien konzentrieren sollte. Für Nvidia ist Titan halt quasi ein Zuckerl, weil das Produkt im Profi-Segment wichtig ist. AMD ist da noch himmelweit hinterher und hat da insofern wohl auch keinen großen Markt, mit dem man sowas finanzieren könnte. Man wird sich da wohl auch eher auf Fusion/HSA konzentrieren, nicht auf reine HPC-GPUs.
Es ist also schön, wenn der Kunde sowas gerne hätte. Wenn das für das Unternehmen nichts bringt, dann kann sich nur ein Multimillionär sowas "wünschen" wenn er genug Geld dafür auf den Tisch legt. Ansonsten ist es sicherlich besser, sich auf die Bereich zu konzentrieren, wo man zumindest die Chance hat, Geld zu verdienen. Insofern ist es schön, dass diejenigen, die gerne nicht aufs GEld schauen, sich jetzt eine Titan kaufen und dann Benchmarks durchführen können.
 
Zuletzt bearbeitet:
Sobald Gefühle und Empfindungen ins Spiel kommen ist man so oder so außen vor. Das empfindet jeder User für sich und mitunter um Welten anders. Das gleiche Thema gibt es auch beim Sound ;)
 
So, ich habe hier jetzt ein paar der AMD vs. NVIDIA Posts gelöscht. Leute, bleibt bitte beim Thema, und das lautet:

NVIDIA - Kepler

und nicht "Aber AMD hat trotzdem schnellere Karten"
 
Nichts für ungut aber AMD hatte innerhalb ihrer Produktpalette einen größeren Leistungssprung vollzogen als nvida mit dem GK104.

Tahiti XT war zum Launch 40% schneller als der Vorgänger & GK104 war zum Launch 30% schneller als der Vorgänger, Tahiti XT ist 25% größer als GK104 & hat 50% mehr Bandbreite durch das größere SI, noch Fragen?

Nvidia hätte in 350mm² Fläche locker 10 SMX Cluster einbauen können, dann hätte man 1920 Shader, mit einem 384 Bit SI wäre die Karte ca. 10% schneller als eine 7970 Ghz.
Amd hat den größten sprung bei gpgpu vollzogen und das ist für die strategie wichtig.
In diesem Bereich haben Sie aber kaum was zu sagen, der Marktanteil ist zu gering, Nvidia hat über 80% Marktanteil in diesem Segment.
Tja offensichtlich kriegt AMD mehr funktionierende Chips aus einem Wafer raus als Nvidia. Was traditionell eigentlich immer der Fall war, wenn man Insidern glauben darf.
Das war früher so, aber seit GK104 nicht mehr.

Die Radeon verursacht deutlich mehr Produkionskosten als die Geforce, witzig finde ich das die GTX680 dann noch 100 Euro mehr kostet. Nvidia verdient mit GK104 richtig viel Geld. Außerdem ist jetzt 28nm HP nicht teurer als 40nm HP.

GK104

294 mm² DIE
256 Bit SI
2GB GDDR5

Tahiti
365mm² DIE
384 Bit SI
3GB GDDR5
 
Das war früher so, aber seit GK104 nicht mehr.

Die Radeon verursacht deutlich mehr Produkionskosten als die Geforce, witzig finde ich das die GTX680 dann noch 100 Euro mehr kostet.
Hast du eine Quelle für diese Behauptung? Yield der Kepler GPUs? Und verursacht nun der Marketingbegriff "Radeon" Mehrkosten oder welcher spezielle Chips sollte das sein? Ach was solls, genug Ironie.

Dass du Unsinn schreibst geht ja alleine schon dadurch hervor, dass unter "Radeon" mehrere Generationen und Dutzende von verschiedenen Chips firmieren.
.
EDIT :
.


GK104

294 mm² DIE
256 Bit SI
2GB GDDR5
15 funktionierende Chips pro Wafer

Tahiti
365mm² DIE
384 Bit SI
3GB GDDR5
25 funktionierende Chips pro Wafer
Siehst du und schon sind die Tahitis günstiger zu produzieren - ich geh jetzt mal solange von den von mir in rot hinzugefügten Werten aus, bis du mir das Gegenteil beweist ;)
 
Hat der Modpost euch nicht gereicht oder warum macht ihr damit weiter?
 
Da wir hier über Kepler Yields und Kosten in deren Herstellung sprechen, finde ich deinen Vergleich mit der vorhergehenden Benchmark Diskussion unpassend.
 
Über Yields und Kosten kann man reden, solange das nicht in ein gestreite darüber endet, wer denn nun "besser" ist ;)
Achja, und der Ton macht die Musik....
 
Da es keiner weiß ist es müßig sich da mit Spekulationen hoch zu schaukeln, und die vermutete Ausbeute von AMD ist auch im entsprechenden Thread besser aufgehoben.

Tatsache ist dagegen das nv im letzten Quartal sehr gut verdient hat.
 
War das nicht so, dass größere Chips häufiger von Defekten betroffen sein könnten als kleinere Chips?
Kommt darauf an, wieviel an Redundanzen vorgesehen und verbaut sind, um Fehler zu kompensieren.

Kann durchaus sein, dass Tahiti mehr enthält, weil AMD den für eine noch nicht besonders ausgereifte 28nm-Fertigung ausgelegt hat. Ist der Prozess dann schlechter als erwartet und man hat nicht so viel eingeplant, kann auch ein kleinerer Chip (z.B. GK104) ein schlechteres Yield haben.
 
Vor allem wenn man schon 8 Monate länger Produkte in der Fertigungsgröße ausliefert, spricht es dafür, dass man die spezifischen Probleme der Kombinatrion Architektur<->Fertigung früher gelöst hat und länger Optimierungen implementieren konnte.

Richtig ist dass ein größerer Chip bei gleicher Fehlerzahl pro Wafer einen größeren Auschuß bedeutet. Halbiert man die Fehlerzahl wegen gut angepasster Architektur, dann kann man auch mit größerem Chip mehr Ausbeute erreichen.

Was Nvidia mit Kepler definitv angegangen ist und verbessert hat, ist die Größe des Chips. Das bedeutet nicht dass Sie die Fertigungscharakteristiken besser gelöst haben, wofür die monatelange Verspätung in 28nm ja deutlich spricht. Aber ein erster Schritt ist ja getan mit dem GK104 - mit dem GK110 kommt allerdings wieder das alte Nvidia durch.
 
680GTX GPGPU Schwächen in TR?
Irgendwie gibt das der verlinkte Artikel nicht her. *noahnung*

Grafikfehler sind immer ärgerlich, doch dafür gibts Treiberupdates, auf beiden Seiten.
 
Naja Tomb Raider hat wohl jetzt kaum einen anderen Stellenwert als gutes Marketing für AMD. Warten wir mal 4 Wochen ab wie es dann aussieht, wenn Nvidia Gelegenheit hatte Treiber nachzubessern.
 
680GTX GPGPU Schwächen in TR?
Irgendwie gibt das der verlinkte Artikel nicht her. *noahnung*

Nein?

Tomb-Raider-GPU-Benchmarks-integrated-TressFX.png
 
versuchs nochmal
(no deeplinking please sagt nicht sonderlich viel aus *buck*)
 
Zuletzt bearbeitet:
Zurück
Oben Unten