NVIDIA - Kepler

GTX 780 Ti gerade live ;) evtl GK110 Vollausbau? Kühler und PCB sind jedenfalls wie bei der GTX 780 oder Titan...


Edit: Angeblich schneller als Titan also wohl wirklich GK110 Vollausbau. Ist dann wohl der R9 290x Konter...

Also anscheinend sollen die ersten G-Sync Monitore und die GeForce GTX 780 Ti innerhalb des nächsten Monats erscheinen... wird dann Spannend auch was die Preise der kleineren Modelle angeht.

 
Zuletzt bearbeitet:
Konter? Was erwartest du dir denn vom GK110 im Vollausbau? Titan hat zwei SMX Einheiten mehr als die 780 und ist im Schnitt etwa 5-10% schneller. Ein GK110 im Vollausbau hat lediglich eine SMX Einheit mehr als die Titan und dürfte dementsprechend weniger zulegen. Wenn es am Ende 5% sind, dann wäre die Karte 10-15% schneller als die 780. Das dürfte nicht reichen, sofern die Benches stimmen und die R9 290X ~25% schneller als die 780 ist.

---------- Beitrag hinzugefügt um 18:43 ---------- Vorheriger Beitrag um 18:22 ----------

Link scheint tot zu sein. Hier gibt's eine andere Übersicht.
 
Bei 1080p ist der Abstand angeblich sehr viel kleiner. Zusätzlich wissen wir noch nichts über Taktraten und Speicherausbau bei der 780Ti von daher sollten wir wohl bis Mitte November auf die Testberichte zu beiden Karten warten. Aktuell kennen wir weder die Performance der R9 290x noch der 780 Ti, gleiches gilt übrigens für die Preise ;)

 
Zuletzt bearbeitet:
Ich denke eher das es sich nur um ein deutlich höher getaktetes Modell mit mehr TDP Spielraum handelt. Wird dann noch das Temperatur Limit entschärft kann der Boost Takt auch entsprechend hoch angesetzt werden.
 
Sorry, aber wer eine Titan oder 290x @1080p betreibt hat wohl was falsch gemacht (häufigs CPU Limit), 1440p sollten es schon mindestens sein. Der 4k Vorsprung ist natürlich immens und dort insbesondere wichtig, sofern die Zahlen stimmen.
 
Bei 1080p ist der Abstand angeblich sehr viel kleiner.
Na wer eh nur bei 1080p spielt, womöglich noch ohne AA und AF, der braucht auch nicht solche Karten. Der kann auch zu was preiswerterem greifen. Da liegt eine Titan gerade mal 20% bzw 25% vor einer HD 7970G bzw GTX 680. ;)

Zusätzlich wissen wir noch nichts über Taktraten und Speicherausbau bei der 780Ti
Wenn die 780 Ti wirklich im Vollausbau kommt, erwarte ich keine signifikant höheren Taktraten. Die 780 wird ja schon höher getaktet als die Titan. Denkbar wäre auch noch, dass die 780Ti wie die Titan über 14 SMX Einheiten verfügt, allerdings noch etwas mehr Takt rausgequetscht wird. ZB mittels Verringerung der Computing Fähigkeiten im Vergleich zur Titan, wie die DP Rate. Wunder sollte man aber auch da nicht erwarten bei gleichbleibender TDP.
 
Laut Gerüchten soll die R9-290X ca. 50W mehr als Titan verbrauchen, die GTX780 Ti könnte mit 2880 Shader locker 1050Mhz Boost haben, auch wenn die Leistungsaufnahme höher ausfällt, man hätte keine Nachteile gegenüber der neuen Radeon.
 

noch etwas zu AMD Mantle ich poste das trotzdem mal hier kommt ja von der nV Konferenz...
 
Hmm was wurde da bei 3:48 rausgeschnitten?
So oder so Danke für den Link.
 
Laut Gerüchten soll die R9-290X ca. 50W mehr als Titan verbrauchen
Welche Gerüchte? Dieses völlig nichtssagende Furmark Diagramm? Auch du solltest wissen, dass Nvidia in Furmark ordentlich drosselt. Das hätte nur eine Aussagekraft, wenn wir die dazu gehörende Furmark Performance kennen würden. Kennen wir aber nicht. Wobei das eh nicht viel helfen würde. Furmark nutzt OpenGL. AMDs OpenGL Treiber waren bisher nicht gerade toll. Direct3D ist eine ganz andere Geschichte. Mit der Leistungsaufnahme in Spielen hat Furmark daher wenig zu tun. Ausserdem sollte man bedenken, dass das die Unterschiede der Gesamtsysteme waren. Bei den Karten selbst würde der Unterschied geringer ausfallen.
 
Zuletzt bearbeitet:
Na wer eh nur bei 1080p spielt, womöglich noch ohne AA und AF, der braucht auch nicht solche Karten. Der kann auch zu was preiswerterem greifen. Da liegt eine Titan gerade mal 20% bzw 25% vor einer HD 7970G bzw GTX 680. ;)

willst du aber mit vernünftigen herzzahlen spielen, dann reichen selbst diese karte heute nicht aus. sogar wie du es schreibst bei nur 1080p.

G-Sync scheint interessant zu sein, vielleicht hole ich ja doch mal ne nvidia karte seit der 440MX
 
Was willst du mit einer Nvidia Karte? So wie ich G-Sync verstanden habe, brauchst du dafür einen entsprechenden Monitor. Funktionieren sollte es dann theoretisch mit jeder Grafikkarte. Ob es am Ende viel bringt, ist natürlich fraglich. Sichtbares Tearing nehme ich zumindest nur äusserst selten wahr. Kein Grund im Moment für einen neuen Monitor. ;D
 
Ne es wurde gesagt, dass man ne Kepler braucht ... ob das technisch- oder marketingbegründet ist .. kA.
 
Und wie soll das funktionieren? Dann bräuchtest du ja auch andere Anschlüsse als bisher, über die du Nvidia spezifische Signale sendest. Also ich habe bisher noch nichts davon gelesen, dass es rein technologisch nur mit Kepler funktionieren soll. Wenn Nvidia das sagt, dann hat das vermutlich lediglich marketingtechnische Gründe.
 
Funktioniert nur mit Kepler und über Displayport und es ist angeblich Technisch begründet. Man benötigt also eine Kepler Grafikkarte und einen neuen Monitor welcher über Displayport angeschlossen werden muss.

Edit:
DisplayPort 1.0 soll zudem einen Zusatzkanal unterstützen, der bei geringen Latenzen und konstanter Bandbreite eine bidirektionale Verbindung erlaubt, um unter anderem eine Gerätesteuerung nach den VESA-Standards E-DDC, E-EDID, DDC/CI und MCCS zu ermöglichen. Dadurch wird echtes Plug and Play möglich. Dieser Kanal wird AUX-Channel genannt (englisch auxiliary, in diesem Zusammenhang mit Hilfskanal übersetzbar).
Der AUX-Channel kann für verschiedene Zwecke eingesetzt werden, dazu zählen unter anderem Consumer-Electronics-Control oder USB.
Quelle: http://de.wikipedia.org/wiki/DisplayPort

Ich vermute das nV sowas für das Aktuallisierungs-Signal nutzt.
 
Zuletzt bearbeitet:
Und die technischen Gründe sind welche?
 
Naja die Grafikkarte muss dem Monitor mitteilen wenn ein neues Bild zur Darstellung bereit steht. Aktuelle Monitore stellen einfach den aktuellen Inhalt des Speichers mit 60 / 120 oder 144 Hz Abtastrate dar. Irgendwie muss nun allerdings die Grafikkarte die Abtastrate des Bildschirms Dynamisch verändern können.
 
Bei DisplayPort sitzt der Taktgeber doch sowieso im Bildschirm selbst.
Ersetze ihn durch ein beeinflussbares Bauteil das durch die Graka gesteuert werden kann und die Sache sollte gehen.
Vermutlich ist deshalb auch ein neuer Bildschirm fällig.
 
Ja so sieht es aus. Es wurde allerdings mehrfach gesagt das die Steuerung selbst von der Grafikkarte kommen soll. Der Monitor ist demnach nur der Befehlsempfänger daher geht das ganze wahrscheinlich auch nur mit Kepler Karten. Einer der ersten Bildschirme mit G-Sync soll übrigens eine Neuauflage des ASUS VG248QE werden.
 
Zuletzt bearbeitet:
Dennoch, wenn man DisplayPort nutzt, wüsste ich nicht, was gegen andere Grafikbeschleuniger sprechen sollte. Da müsste man jetzt natürlich die DisplayPort Spezifikationen kennen und welche Signale da bereits übertragen werden. Freiwillige?

Wie auch immer. Ich bin da eher skeptisch. Zum einen kann ich mir nicht vorstellen, dass das ständige Wechseln der Bildwiederholrate gut für die Langlebigkeit des Monitors ist. Vielleicht bin ich da aber auch einfach nur durch Röhrenmonitore geschädigt. Zum anderen erhältst du damit aber auch ständig wechselnde Framezeiten auf dem Monitor. Das was jetzt schon GPU-seitig immer wieder kritisiert wird. Und ob es auf dem Monitor recht augenschonend ist und als gleichbleibend flüssig empfunden wird, ist fraglich. MMn ist eine feste Abtastrate schon der richtige Ansatz. Nur müsste man hardwareseitig sicherstellen, dass im selben Abtastzyklus nicht unterschiedliche Frames übertragen werden können. Notfalls einfach einen oder auch mehrere Abtastzyklen überspringen. Sofern die Abtastrate hoch genug ist, sollte das nicht wahrnehmbar sein.

Das Ziel von G-Sync ist sicherlich nicht verkehrt. Nur werde ich das Gefühl nicht los, dass Nvidia mit Kanonen auf Spatzen zu schiessen versucht.
 
Zuletzt bearbeitet:
Durch die Fixe Wiederholrate addiert man immer eine weitere Verzögerung zur Bildausgabe der Grafikkarte, diese liegt bei einem 60 Hz TFT immerhin zwischen 0 und 1/60 Sec, spielen mit Niedrigen FPS und G-Sync ist alleine durch diesen Effekt wohl Angenehmer als ohne da man eine Fehlerquelle für inkonstante Bildausgabe weniger hat. Fixe Wiederholraten bringen eine Verzögerung mit die mit den Inkonsistenten Berechnungszeiten der Grafikkarte summiert wird. Das kann den Effekt entweder geringfügig verbessern oder aber (je nach dem wann das Bild genau fertig ist) sogar verstärken es ist also einfach eine zusätzliche Fehlerquelle. In Sachen Langlebigkeit sehe ich bei aktuellen Monitoren mit Dynamischer Wiederholfrequenz eigentlich keine Probleme wo sollen denn da welche entstehen?

Zu dem Sync Signal ich vermute das nV hier den CEC Kanal oder ähnliches nutzt. Ich hab allerdings keine idee wie der Sync befehl genau aussieht währe es möglich dafür DDM zu nutzen?
DDM[edit]
Direct Drive Monitor (DDM) 1.0 standard was approved in December 2008. It allows for controller-less monitors where the display panel is directly driven by the DisplayPort signal, although the available resolutions and color depth are limited to 2-lane operation.
Quelle: http://en.wikipedia.org/wiki/DisplayPort

Daher vermute ich mal schon das es ein zusätzliches Signal gibt welches von anderen Grafikkarten zumindest aktuell nicht bereitgestellt wird. Das heißt nicht das man das verhalten nicht höchstwahrscheinlich mit einem neuen Treiber implementieren könnte.
 
Zuletzt bearbeitet:
Dennoch, wenn man DisplayPort nutzt, wüsste ich nicht, was gegen andere Grafikbeschleuniger sprechen sollte. Da müsste man jetzt natürlich die DisplayPort Spezifikationen kennen und welche Signale da bereits übertragen werden. Freiwillige?

Sehe auch nichts, was man neben dem Bildschirm an Hw benötigt für die g-sync. Nv will doch einfach nicht das ganze noch für 2+ Jahre alte karten in die Treiber integrieren, macht AMD ja mit Mantle auch nicht anderst.
 
Vielleicht nimmt der Monitor auch nur die Bilder entgegen ohne an eine feste Bildwiederholrate gebunden zu sein.
Erkennt die Grafikkarte so einen Monitor dann schickt sie die Vollbilder ohne Umwege sofort raus. Zumindest könnte man den Monitor dann auch an ohne dieses Feature betreiben da er so oder so auf das Refresh Signal reagiert.
 
Hmm was wurde da bei 3:48 rausgeschnitten?
So oder so Danke für den Link.

hier nochmal in Text form ;)

und hier die Präsentation von G-Sync und 780 Ti als Text

Achtung: da es der Liveblog ist bitte von unten nach oben lesen ;)

btw:
03:02PM EDT - Carmack: is G-Sync hardware licensable?
03:02PM EDT - NV: we haven't precluded that

und zu Mantle gibt es wohl eine recht übereinstimmende Meinung:
02:58PM EDT - Everyone seems to agree that Mantle alone isn't bad, if everyone builds their own it's bad, but hopefully it influences OpenGL/DX direction
 
Zuletzt bearbeitet:
hier nochmal in Text form ;)

Achtung: da es der Liveblog ist bitte von unten nach oben lesen ;)
Danke, aber das hatte ich schon gesehen, und die Lücke gibts da auch.
it's not a replacement, the idea is that we can solve some of the long term problems we have been having on the PC,<Lücke> those are things we can experiment and work with Mantle, this is another avenue, opening up something we're quite familiar with, we've spent the last few years working on next-gen consoles, even though
Sieht man auch daran, dass sich das "those" auf nichts bezieht. Scheint so, als ob er da ein paar Beispiele für die Langzeitprobleme genannt hat.

Zum Displayportsignal stand was auf anadtech:
Meanwhile we do have limited information on the interface itself; G-Sync is designed to work over DisplayPort (since it’s packet based), with NVIDIA manipulating the timing of the v-blank signal to indicate a refresh. Importantly, this indicates that NVIDIA may not be significantly modifying the DisplayPort protocol, which at least cracks open the door to other implementations on the source/video card side.
http://www.anandtech.com/show/7436/nvidias-gsync-attempting-to-revolutionize-gaming-via-smoothness
 
Zurück
Oben Unten