Nvidias GM200 ohne Double Precision Einheiten.

Complicated

Grand Admiral Special
Mitglied seit
08.10.2010
Beiträge
4.949
Renomée
441
Laut 3Dcenter gilt es als gesichert, dass Nvidias GM200 keine DP Einheiten enthält um trotz selber Fertigung effizienter zu sein bei Spielen.
http://www.3dcenter.org/news/nvidias-gm200-kommt-scheinbar-als-nahezu-reiner-gamerchip
Zu nVidias GM200-Chip kommt aus unserem Forum leider die klare Bestätigung von einem informierten Nutzer (um das Posting richtig deuten zu können, muß man den vorherigen Thread verfolgt haben), daß der GM200-Chip keine DoublePrecision-Einheiten tragen wird bzw. daß die DoublePrecision-Leistung deutlich unter dem liegt, was man ansonsten von nVidias Enthusiasten-Chips gewohnt ist. Hierzu gab es mal eine sogar nVidia-basierte Meldung gleichen Inhalts – allein, man konnte dies bisher noch nicht wirklich glauben und wartete daher eine entsprechende Bestätigung ab, welche nunmehr vorliegt. Dies hat Vor- und Nachteile: Für die professionellen Anwender fällt ein Hauptargument weg, AMD könnte hier also – gerade wenn der Fiji-Chip mit 4096 Shader-Einheiten daherkommt – einigen Boden in diesem Marktsegment gutmachen. Im Gamer-Segment hat ein GM200 als reiner Gaming-Chip aber den Vorteil, daß jener sehr viel effizienter in dieser Aufgabe sein kann – was sich insbesondere in den angesetzten Taktraten niederschlagen dürfte.
 
Ich vermute mal, dass das eine direkte Folge der noch immer notwendigen 28-Nanometer-Fertigung ist. Denn wenn man die Strukturen nicht schrumpfen kann, ist der Platz schnell zu eingeschränkt, um alle Features plus zusätzlich noch deutlich mehr Performance zu erzielen.

Es überrascht mich jedenfalls nicht wirklich, hinterlässt bei mir aber Fragen bzw. Neugier auf die Preisgestaltung. Denn ein Hauptaugenmerk von Titan war bzw. ist, dass die Karte neben guter Spieleleistung auch für semi-professionelle Anwender interessant war. Dieses Argument dürfte nun wegfallen und damit eine der Säulen, auf der der hohe Preis von Titan ruhte.

Wird imho interessant.
 
nVidia würde in diesem Fall ziemliche Schwierigkeiten bei der Ablösung der Tesla K40/K80 haben.

Double Precision ist im HPC Umfeld zwar nicht allgegenwärtig, aber dennoch bedeutsame.
 
DP wird auch für Starcitizen notwendig im PU. Dürfte mit der Karte ja dann nicht spielbar sein.
 
DP wird auch für Starcitizen notwendig im PU. Dürfte mit der Karte ja dann nicht spielbar sein.
Spielbar wird es sein, aber ohne auf DP spezialisierte Einheiten wird das Verhältnis von SP zu DP wird bei 32:1 liegen, wie bei den übrigen Maxwell Karten. Das ist nicht besonders berauschend, wenn man bedenkt, dass der GK210 im Vollausbau bei DP rund 1/3 der SP Rechenleistung erbringt. Allerdings hat nVidia die DP Leistung bei der GeForce GTX 780 Ti auf 24:1 beschnitten, um den Tesla Karten nicht das Wasser abzugraben. Insofern ständen Grafikkarten auf Basis des GM200 zumindest nicht viel schlechter dar als ihre GeForce (!) Vorgänger. Eine Verwendung im HPC Umfeld kommt jedoch nur noch eingeschränkt in Frage. Übrigens beschneidet auch AMD die DP Leistung seiner Produkte, um die Märkte abzugrenzen. Die Radeon R9 290X kommt auf ein Verhältnis von DP zu DP von 8:1. Derselben Hawaii Chip auf der FirePro W9100 schafft statt dessen die 1/2 der SP Rechenleistung bei DP.
 
Laut dem Artikel im 3Dcenter wird die GK210 weiter den Teslamarkt bedienen und dies wird wohl auich der Grund gewesen sein diese überhaupt zu releasen. GM200 würde selbst mit DP-einheiten nicht mehr Performance bringen, da eben der Tradeoff weniger Shader und auch ein kleinerer Takt gewesen wären. Die 3000 Shader und konkurrenzfähige Taktraten waren wohl nur so möglich. Ehrlich gesagt habe ich Mühe zu sehen wie sie damit der kommenden HBM-basierenden Highend Generation von AMD Paroli bieten wollen. Da stehen 4096 Shader zu buche und ein neues Speichersubsystem mit hohen Durchsätzen. In jedem Fall wird ein gesamtes Segment der Enthusiasten nicht bedient die DP Leistung als Kaufkriterium haben.
 
Ob HBM bei den FirePro Karten überhaupt zum Einsatz kommt? Dafür müsste ECC von Anfang an verfügbar sein.
ECC ist jedoch erst für die zweite Generation von HBM Stacks geplant und diese müsste bis dahin lieferbar sein.

Das könnte knapp werden. AMD könnte auf Virtual ECC ausweichen. Dann reichen Stacks der ersten Generation.
 
Es überrascht mich jedenfalls nicht wirklich, hinterlässt bei mir aber Fragen bzw. Neugier auf die Preisgestaltung. Denn ein Hauptaugenmerk von Titan war bzw. ist, dass die Karte neben guter Spieleleistung auch für semi-professionelle Anwender interessant war. Dieses Argument dürfte nun wegfallen und damit eine der Säulen, auf der der hohe Preis von Titan ruhte.

Wird imho interessant.

Das wird natürlich berücksichtigt und sie kostet dann nur noch 900 statt 1000 Euro. ;D
 
...auch für semi-professionelle Anwender interessant war.
Unterstützt die Titan (Black) denn inzwischen Monitore mit 10 oder 12-Bit Farbtiefe oder braucht es dafür doch eine Quadro?

Ich weiß, dass es dir um die DP Leistung ging, aber Deep Color ist für Adobe Photoshop oder Premiere Nutzer nicht unwichtig.
 
In jedem Fall wird ein gesamtes Segment der Enthusiasten nicht bedient die DP Leistung als Kaufkriterium haben.
Schön und gut - aber wie viele Hundert Leute betrifft das wirklich? Und vielleicht werden die ja dann mit einer Quadro-Karte auch glücklich.
 
Und vielleicht werden die ja dann mit einer Quadro-Karte auch glücklich.
Besser wäre es, es würde eine Radeon. Diese sind (nicht alle) gegenüber den FirePro nur um den Faktor 1:4 beschnitten.

Bei nVidia kann man dagegen froh sein, wenn der Faktor 1:8 (GeForce zu Tesla - Titans ausgenommen) beträgt.
 
Unterstützt die Titan (Black) denn inzwischen Monitore mit 10 oder 12-Bit Farbtiefe oder braucht es dafür doch eine Quadro?

Ich weiß, dass es dir um die DP Leistung ging, aber Deep Color ist für Adobe Photoshop oder Premiere Nutzer nicht unwichtig.

Das kann ich dir ehrlich gesagt nicht beantworten. Ist auch nicht schlimm und sicher richtig, dass neben der DP-Leistung auch andere Dinge wichtig (bzw. vielleicht noch wichtiger) waren/sind.

Allerdings haben die DP-Leistung zusammen mit den 6 GB VRAM dafür gesorgt, dass die Gebrauchtpreise von Titan relativ hoch geblieben sind. Wollte man Karten kaufen, waren das immer die schlagkräftigsten Argumente für ordentliche Wechselkurse. Und selbst viele Gamer, die die DP-Leistung nicht genutzt haben, haben damit (erfolgreich) argumentiert.

Ich hab meine beiden Classic-Titan für 550 Euro inklusive Wasserkühler je Stück gekauft und für ~430 Euro wieder verkauft - nach einem knappen Jahr Nutzung. Selbst wenn ich sie beim Launch neu gekauft hätte, wäre das noch immer ein in meinen Augen guter Gebrauchtpreis.

Ich bin gespannt, wie das bei GM200 / Titan II / 980 TI (oder welche Bezeichnung auch immer) handhaben wird, wenn DP fehlt. Aber gut möglich, dass man dann eben "nur" 900 statt 1000 Euro aufruft...
 
die gebrauchtpreise sind nicht nur aufgrund der DP-leistung stabil. die karte leistet noch ordentlich und es gibt weniger angebote als nachfrage. dass sie allerdings mal 1000€ gekostet hat, ist mir entgangen. lt. meiner buchhaltung hat titan im märz 2013 neunhundert euro gekostet. über tausend ging nur die olle GTX690 (1049€).

der DP schalter im CP der titan war vor den biosmods ein nettes gimmick, wenn man den boost abschalten wollte.

dass ein nachfolger nocheinmal wirklich titanig wird bezweifle ich. also zumindest den umstand, dass man dann nie wieder ne andere DX12-karte benötigen wird. mit titan classic und DX11 hat das geklappt - bisher war es nicht nötig, für DX11 leistung nachzukaufen.



(..)

mfg
tobi
 
Zuletzt bearbeitet:
MusicIsMyLife schrieb:
Ich hab meine beiden Classic-Titan für 550 Euro inklusive Wasserkühler je Stück gekauft und für ~430 Euro wieder verkauft - nach einem knappen Jahr Nutzung.
Wieso hast du 2 Titans inkl. Wasserkühler für weniger als den Kaufpreis abgestoßen, um dann 2 980er zu kaufen? Ist das nicht ein ziemliches Verlustgeschäft, vor allem in Anbetracht der DP-Kastration der 980er und des Wechsels von 2 Enthusiastenkarten mit Enthusiastenpreis zu 2 Karten der oberen Mittelklasse mit Enthusiastenpreis sowie des Mangels an Nutzungsmöglichkeiten von mehr als DX11?
Ich bin ein Kritiker des mit Titan eingeführten Geschäftsmodells (Launch des echten High-Ends zum z.T. unheimlich überzogenen Preis nach Pseudo-High-End), aber wenn man einmal eine hat, wieso wechseln? Tobi scheint es ähnlich zu sehen?

Aus persönlichem Interesse: Wie würdest du hier abstimmen? http://www.3dcenter.org/news/umfrage-auswertung-geforce-gtx-970-behalten-abwarten-zurueckschicken
 
Zuletzt bearbeitet:
Schön und gut - aber wie viele Hundert Leute betrifft das wirklich? Und vielleicht werden die ja dann mit einer Quadro-Karte auch glücklich.

Nur gibt es keine neuen Quadros und Teslas. Es bleibt bei dem GK210 in diesem Marktsegment als Spitzenmodell, weil der GM200 dafür nicht genutzt werden kann. Und der Nachfolger auf Volta Basis wird einige Zeit auf sich warten lassen. Da wird sogar schon ein Nachfolger für die kommende Fiji auf dem Weg sein.
 
Wieso hast du 2 Titans inkl. Wasserkühler für weniger als den Kaufpreis abgestoßen, um dann 2 980er zu kaufen? Ist das nicht ein ziemliches Verlustgeschäft, vor allem in Anbetracht der DP-Kastration der 980er und des Wechsels von 2 Enthusiastenkarten mit Enthusiastenpreis zu 2 Karten der oberen Mittelklasse mit Enthusiastenpreis sowie des Mangels an Nutzungsmöglichkeiten von mehr als DX11?
Ich bin ein Kritiker des mit Titan eingeführten Geschäftsmodells (Launch des echten High-Ends zum z.T. unheimlich überzogenen Preis nach Pseudo-High-End), aber wenn man einmal eine hat, wieso wechseln? Tobi scheint es ähnlich zu sehen?

Ich habe die Titans knapp ein Jahr genutzt - da ist ein Wertverlust völlig normal. Und bei der Titan war er sogar sehr gering. Hinzu kommt, dass mit einem deutlich höheren Wertverlust zu rechnen ist, wenn erstmal weitere Karten im Markt sind (in Form von GM200 und/oder der R300-Serie). Daher habe ich den günstigen Kurs mitgenommen.

Für die 980er habe ich mich entschieden, da eine übertaktete 980 gegenüber einer übertakteten Titan in BF4 rund ein Drittel schneller war (PCGH hat Titan @ 1200/1800 gegen 980 @ 1500/2000 getestet - das sind/waren exakt meine Taktraten). Und BF4 ist das Hauptanwendungsgebiet meines Systems (wenn ich denn mal zocke). Und für 33 Prozent Mehrperformance in diesem Titel habe ich etwa 42/43 Prozent Aufpreis gezahlt - das ist verglichen mit anderen Vorgängergenerationen ein hervorragendes Verhältnis.

Ich schaue mir die kommenden Karten von NVIDIA und AMD trotz guter Ausstattung an und werde schauen, ob ich vielleicht schon wieder wechsle.




Ich habe bei dieser Umfrage sogar mitgemacht. Ich würde die 970 zurückschicken, da ich mich bei Rucklern nicht fragen wollen würde, ob es das Spiel, das Betriebssystem oder eventuell sogar die Hardware ist. Zudem befürchte ich, dass NV irgendwann keine Treiber mehr speziell auf die 970-Problematik anbietet und die Karte deshalb früher "wertlos" wird als nötig.

Zudem würde ich vom heutigen Standpunkt aus wohl eher zu AMDs R300-Serie tendieren, wenn es ums Umrüsten geht. Allerdings nicht allein wegen der 970 sondern auch deshalb, weil ich schon lange keine AMDs mehr im Rechner hatte (zuletzt war es die 5870).
 
ich weiss nicht.. die PCGH balken konnte ich auf meiner kiste nie nachstellen.. sowas hätte mich im leben nicht zum wechseln animiert.



ich bekomme da deutlich bessere werte raus.. hab grad mal reingeschaut..



2015-02-15 13:39:59 - bf4 (baku, 1440p, ultra)
Frames: 14135 - Time: 200359ms - Avg: 70.548 - Min: 47 - Max: 91
Avg.time:14,17 (71FPS) 1% time:20,14 (50FPS) 0.1% time:22,88 (44FPS)


(..)

mfg
tobi
 
Wenn BF4 dein Hauptanwendungsgebiet für die Karten ist, wieso nahmst du keine 290X (oder gar 295X2), die mit Mantle noch um einiges bessere Ergebnisse liefern dürften?

Der Battlefield-4-Nachfolger hat die gleiche Engine wie 4, oder? Ich meine damals schon gelesen zu haben, dass dem so ist und darum erneut Mantle-Unterstützung vorhanden sein wird.
 
Wenn BF4 dein Hauptanwendungsgebiet für die Karten ist, wieso nahmst du keine 290X (oder gar 295X2), die mit Mantle noch um einiges bessere Ergebnisse liefern dürften?

Der Battlefield-4-Nachfolger hat die gleiche Engine wie 4, oder? Ich meine damals schon gelesen zu haben, dass dem so ist und darum erneut Mantle-Unterstützung vorhanden sein wird.
Bei Hardline gibt es bei mir einen Eintrag in der PROFSAVE_profile:

GstRender.MantleEnabled

;D
 
Und sind mithilfe von Mantle mit deinem CF-Gespann gleichwertige oder bessere Ergebnisse zu erzielen als mit Tobis Titan?
Falls ja, sollten zwei 290X bessere Ergebnisse liefern als zwei 980.
 
ich weiss nicht.. die PCGH balken konnte ich auf meiner kiste nie nachstellen.. sowas hätte mich im leben nicht zum wechseln animiert.

Die Ergebnisse der PCGH waren natürlich nicht der einzige Punkt, weshalb ich gewechselt bin. Aber sie waren der berühmte Tropfen, der das Fass zum Überlaufen brachte.

Ich war in der komfortablen Situation, dass ich für einen überschaubaren Aufpreis in ausgewählten Titeln einen guten Leistungsschub bekommen habe. Die 6 GB VRAM der Titan waren nice, aber ich habe sie nicht gebraucht - selbst als ich BF4 in 4K gespielt habe, lag ich bei knapp 3 GB. Dass ich jetzt trotz mehr Leistung auch noch etwas weniger verbrauche, kommt als Sahnestück oben drauf.

Es waren also mehrere Dinge, die mich dazu bewegt haben. Der Drang, nach knapp einem Jahr was neues zu nutzen, kommt da noch hinzu. Diesen Drang kennst du sicher nur allzu gut... ;)



Im Übrigen habe ich hier gerade das Gefühl, dass ich meinen Wechsel verteidigen soll (bzw. eingestehen, dass es ein Fehler war). Warum hab ich dies gemacht, jenes gemacht, warum nicht so? Antwort: Weil ich es genau so wollte. Ich hab mich zum Wechsel von 2x Titan zu 2x 980 entschieden, weil es die Summe mehrerer Teile war. Und ich würde mich heute bei gleichen Voraussetzungen wieder so entscheiden. Ob euch das gefällt oder nicht.

290er Karten hätte ich schon beim Kauf der Titanen haben können. Mein Kumpel hat die Titanen nämlich "abgelegt" und ist auf 290er gewechselt. Und ein Jahr später auf "alte" Technik zu wechseln hat auch keinen Charme, erst recht nicht, weil mein Kumpel ein dem Meinen sehr ähnliches System hatte und im CF bei BF4 immer mal wieder Probleme hatte. Deshalb waren 290er keine Option.

Mal schauen, wie das mit der R300-Serie aussieht...
 
Du sollst und musst nichts verteidigen. Ist nur mein Interesse an Mantle. BF4 habe ich nicht und Benchmarks kann man iA nicht trauen. Selbst wenn es aktuelle mit BF4@Mantle in zur Meinungsbildung ausreichender Zahl geben sollte, betrifft es mich persönlich ja nicht, also wälze ich keine (Nach-)Tests.
 
@music
klar, verstehe ich die neugierde auf was neues. ich habe das thema schon mit einigen anderen diskutiert; allerdings nicht öffentlich.

heiko (blaire @3DC) meinte gestern zu mir, dass er im nachhinein betrachtet, auch die titan classic(s) hätte behalten sollen und dass er die VRAM geschichte unterschätzt habe. ich für meinen teil würde jetzt gern vors loch schieben, dass ich aufgrund diverser GTX980 balken nicht geschwenkt bin, aber das wäre gelogen. bei mir haben die beiden 4GiB maxwells einfach kein interesse geweckt - da fand ich die R9 290 spannender, wenn auch unterm strich ernüchternd.

falls ich mir nochmal etwas grafikkreierendes für den PC neukaufe, dann legt das auf meine titan "out-of-the-box" 50% drauf, ist zwingend für DX12 nötig und kostet maximal 500€. kuhl.. ich habe noch 1 jahr ruhe..


(..)

mfg
tobi
 
Und sind mithilfe von Mantle mit deinem CF-Gespann gleichwertige oder bessere Ergebnisse zu erzielen als mit Tobis Titan?
Falls ja, sollten zwei 290X bessere Ergebnisse liefern als zwei 980.
In der Beta war leider nur der DX11 Pfad mit Windows 7 verfügbar.
Jetzt ist die Beta vorbei, mit einer HD 7970 lief es sehr gut im 60FPS Bereich, also sollten 2 Karten um die 120FPS erreichen.
Bei BF4 sind die Framevarianzen inzwischen traumhaft: http://abload.de/img/screenshotwin32-0051ekp0m.png

Ich muss mal noch Plants vs Zombies GfW testen, das lief von Anfang an im GPU Limit zumindest mit Mantle. ;)
 
In der Beta war leider nur der DX11 Pfad mit Windows 7 verfügbar.
Jetzt ist die Beta vorbei, mit einer HD 7970 lief es sehr gut im 60FPS Bereich, also sollten 2 Karten um die 120FPS erreichen.
Bei BF4 sind die Framevarianzen inzwischen traumhaft: http://abload.de/img/screenshotwin32-0051ekp0m.png

Ich muss mal noch Plants vs Zombies GfW testen, das lief von Anfang an im GPU Limit zumindest mit Mantle. ;)

das ist nur 1080p. die PCGH-balken sind 1440p.

btw,
in fullHD auflösung kriege ich schon mit SGPU und ohne alternative api schlappe 100fps @ultra, aber battlefield ist inzwischen ein alter schinken und war für mich auch der letzte teil der reihe. hab die serie 10 jahre gespielt.. luft raus.



2015-02-15 15:45:53 - bf4 (baku, 1080p, ultra)
Frames: 21112 - Time: 220391ms - Avg: 95.793 - Min: 71 - Max: 145
Avg.time:10,44 (96FPS) 1% time:13,87 (72FPS) 0.1% time:15,67 (64FPS)


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Zurück
Oben Unten