nVidia Geforce GTX 1630/1650/1660(S/Ti) und RTX 2060(S)/2070(S)/2080(S/Ti)/Titan RTX: Tests/Meinungen im Netz. Links in Post 1

Is so wie es auch schon im Vorfeld diskutiert wurde. Eine reine Gaming Karte. Wer anstatt 100 fps 200 fps haben will muss eben mal 1000 € locker machen.

Die ganzen Optimierungen fressen halt immer mehr Rechenleistung und bringen in der Bildqualität recht wenig. Aber sie müssen halt mit irgend was werben. Die Spiele die darauf entwickelt werden laufen wahrscheinlich erst in 5 Jahren sauber.

Ist doch jetzt schon so, mit den ganzen Settings. Je nach Hersteller wird mal dieses oder jenes besser unterstützt.

Ich denke mal für viele ist die neue Generation noch total uninteressant.
 
Ich würde erst mal unabhängige Tests abwarten um ein erstes Fazit zu ziehen. Nachdenklich macht mich das man für DLSS dann Geforce Experience braucht und auch ein Konto bei nvidia.
 
https://www.planet3dnow.de/vbulleti...ks-in-Post-1?p=5210951&viewfull=1#post5210951
Ergänzung zu meinem Test von oben.
Ich wurde an anderer Stelle darauf aufmerksam gemacht, dass Huang bei seiner Aussage von "30 something" sich auf die DirectX 12 Version bezog.
Da habe ich wirklich nur um die 30 fps, mal mehr mal weniger.

Soll heißen, unter DirectX 12 ist Turing dann doch schon mal 50-70% schneller zumindest in der techdemo.

Wenn nVidia aber auf der 1080 unter DX11 ca 50% (50-60FPS) schneller ist als in DX12 (~40FPS mit drops auf 30) würde das eigentlich nur bedeuten dass nVidia nun "endlich" mal eine DX12-fähige Karte rausbringt (die nicht extra einbricht wenn man DX12 aktiviert, wie das bisher fast immer der Fall war).

Klar kommen hier die DXR-Features noch dazu - aber seien wir mal ehrlich, wie lange gibt es nun schon DX12 ?!? und wer nutzt es wirklich sinnvoll bislang ?

Aber gut in 5-10 Jahren wird dann Hybrid Echtzeit-RT mit klassischen Raster-Render gut laufen und gut aussehen. Bis dahin die RTX über dieses "Feature" derart über dem Preis ihrer Leistung vermarkten zu wollen ist nur lächerlich.

Aber gut - ich bin eh nicht die Zielgruppe. Ich habe noch NIE mehr als 250€ für eine GPU ausgebeben.
1300€ kostet bei mir in der Regel das GESAMTSYSTEM inklusive Bildschirm, Gehäuse, Netzteil etc.

Mein nächster Schritt wird also ein Ryzen 2600 System mit einer AMD GPU bis 250€ in Q1/2019 + evtl. ein neuer Bildschirm mit Freesync. (Je nachdem ob ich 1000€ oder 1300€ ausgeben will :-).)
 
Aber gut - ich bin eh nicht die Zielgruppe. Ich habe noch NIE mehr als 250€ für eine GPU ausgebeben.

Leider werden die Karten auch für dich indirekt immer teurer. Denn wenn du vor ein paar Jahren für 250 Euro Midrange-Leistung bekommen hast, gibt es aktuell quasi nur noch Einstiegshardware.

Das ist so wie der Witz mit den Benzinpreisen: Höhere Benzinpreise treffen mich nicht. Ich tanke ohnehin immer nur für 20 Euro.

Das ist keine Kritik, bitte nicht falsch verstehen. Nur leider stellt sich die Situation so dar, dass sich die Preise aller Marktsegmente langsam aber sicher nach oben verschieben, sodass du indirekt immer weniger für dein Preislimit von 250 Euro bekommst.



Nachdenklich macht mich das man für DLSS dann Geforce Experience braucht und auch ein Konto bei nvidia.

Echt jetzt?!

Ein weiterer Grund für mich, nein zu sagen. :(

Nachdem ich am Amazon Primeday einen FreeSync-Monitor gekauft habe, obwohl ich ihn weder brauchte noch eine AMD-Karte hatte, habe ich mir vorgestern zwei Vega64 im Mindstar-Angebot gekrallt. Mein Ziel ist es, NVIDIA den Rücken zu kehren und dabei noch ein paar Sachen auszuprobieren. Wenn alles passt, werde ich vermutlich die beiden 1080 TI, den GSync-Monitor und eine der Vega verkaufen und mit einer Vega weitermachen - mit allen eventuell entstehenden Nachteilen sowie den Vorteilen. Sollten meine "Tests" gut ausgehen, könnten es auch zwei Vega bleiben, wovon ich derzeit aber nicht ausgehe.

Ich bin jetzt sicherlich nicht der Maßstab, jedoch geht mir NVIDIAs aktuelle Firmenpolitik so dermaßen auf den Senkel, dass ich mich zum Handeln gezwungen sehe. Unabhängig davon, dass aufgrund fehlender Tests zur RTX-Serie natürlich noch kein abschließendes Urteil möglich ist, so empfinde ich die Entwicklung als besorgniserregend.

Erstmals seit der 5870 wieder eine AMD-Karte im Hauptrechner zu verwenden wird sicherlich eine Art Selbstversuch - ehrlich gesagt freue ich mich aber darauf. :)
 
Aus der HardwareLUXX News:

Die dazu notwendigen Daten werden per GeForce Experience an den Rechner übertragen und sind nur wenige Megabyte groß. Allerdings würde damit auch die Installation der GeForce Experience zusätzlich zum Treiber notwendig und zudem verlangt dieser nach einem Login und kann nicht mehr einfach so betrieben werden.

Von den für mich nicht mehr angemessenen Preisen eine weitere Kröte die mal schlucken müsste, ich installieren immer den Treiber ohne den ganzen Mist (schon löschen im Ordner vor der Installation).

Mein nächster Monitor soll auch FreeSync und mehr als 60hz bieten, aber am liebsten auch mit 4k und das bedeutet für mich da müssen noch erst entsprechende Geräte zu angemessenen Preisen verfügbar sein. So etwas wie Gsync will ih gar nicht erst unterstützen.

Hätte auch lieber eine Vega 64 als die 1080, aber die war halt eine Gelegenheit und zu dem Zeitpunkt waren Vega wegen Mining schlecht verfügbar und sauteuer.
 
Zuletzt bearbeitet:
Leider werden die Karten auch für dich indirekt immer teurer. Denn wenn du vor ein paar Jahren für 250 Euro Midrange-Leistung bekommen hast, gibt es aktuell quasi nur noch Einstiegshardware.

Also das sehe ich anders...als ich mir damals meine Sapphire Nitro R9 380 4GB gekauft habe für 239€ war diese gute Performance klasse.
Wenn ich heute sehe was es so bis 250€ gibt (nach dem abebben des Mining-Booms):
https://www.computerbase.de/preisve...250&v=l&hloc=de&plz=&dist=&sort=p#productlist

Gefällt mir eigentlich eine 8GB RX 580 sehr gut für 249€.
Der Leistungszuwachs zu meiner R9 380 dürfte damit so bei ca 60-80% liegen (speziell in DX12) dazu noch das Freesync feature.
https://www.computerbase.de/thema/grafikkarte/rangliste/

Von nVidia gibts in dem Range halt einfach mal (wie fast immer wenn ich GPUs gesucht habe) nichts wirklich Konkurrenzfähiges. Eine 3GB 1060 ? Eine 1050 Ti ist eine völlig andere Leistungsklasse und wäre eher ein Sidegrade zu meiner R9 380.
3GB VRAM zur heutigen Zeit ein absoluter no go, meine Vorgängerkarte eine HD6950 mit 2GB hatte am Ende ihrer Zeit schon massiv VRAM-Probleme und eigentlich habe ich sie nur gegen die 380 getauscht weil die HD6950 defekt gegangen ist.

60-80 % Mehr-Leistung sind normalerweise auch so das untere Maß bei dem ich überhaupt über einen Ersatz nachdenke wenn nicht ein Defekt oder ähnliches eintritt (siehe HD6950).

Davor hatte ich eine HD6950 mit 2GB für 219€ und auch da war der Sprung zur R9 380 merklich wenn auch nicht so groß (vor allem wegen der 4GB VRAM, die 2GB bei der 6950 waren doch doch später oft etwas eng). Leider hatte die 6950 einen defekt und musste daher eigentlich vor Ablauf ihrer Zeit gewechselt werden. Sonst hätte ich jetzt vermutlich schon eine RX480 oder 580 im Rechner, gekauft noch vor dem Mining-Boom.

Also imho passt die Preisentwicklung - zumindest bei AMD.

Ich hoffe ja darauf dass AMD noch diesen Winter, spätestens aber Q1/2019 mit einem 7nm Shrink + optimierung von Polaris/Vega kommt zu sehr guten Preisen. Mich interessiert nicht was mit 1000€ möglich wäre, dafür ist das zu teuer und es gibt wichtigere Luxusartikel als GPUs für das Geld.

EDIT: Der Grund für mein Preislimit bei ~250€ ist einfach der: Konsolen gibts auch für ca 250€. Warum sollte also meine PC-"Konsole" mehr kosten als eine beliebige andere Konsole...mit dem Vorteil dass ein PC eben auch so viel mehr kann.
 
Zuletzt bearbeitet:
Das DLSS / DLAA wie man es auch nennen möchte hat allerdings einen sehr großen Vorteil in Spielen die das unterstützen: (und darauf beziehen sich die Bilder die NV veröffentlicht hat) Die Tensor Cores entlasten dann nämlich den eigentlichen Grafikchip. Die ersetzen quasi das Berechnen des AA auf der GPU und nutzen dafür dann die TC.

Deswegen werden halt "bis zu 2x schneller als eine der alten Generation" angegeben.

Nehmen wir die ganzen Neuerungen raus und schauen uns DX11 Spiele dann an, (was die meisten ja immer noch sind) kommt anhand der bislang veröffentlichen Daten maximal 75% Leistungsplus raus. (im Optimalfall versteht sich)

Ich denke es werden gemittelt dann eher so um die 30 - 50% werden (Anzahl der Shadereinheiten die dazu gekommen sind + höherer Takt + mehr Speicherbandreite und Erhöhung der ipc um angebliche 50%)
Das allerdings zu einem Verbrauch von bis zu 475w.

Wie ich auf die Wattzahl komme? die MSI RTX 2080 Ti Gaming X Trio hat 2x8 pin + 1x 6pin Anschluss.

Klar wird es auch Modelle geben die nur 1x8 pin und 1x6 pin brauchen, die können dann aber nicht so hoch takten und sind mit sicherheit dann am unteren ende (hier 30% schneller als eine OC 1080Ti oder Titan X p ? P ? ) die neuere der beiden Titans halt.. Drecks Namensgebung.

Wo wir auch beim letzten sind. Es wird keine neue Titan geben, der Vollausbau ist die Quatro und die 2080ti ersetzt die Titan, deswegen auch der höhere Preis.

Im Umkehrschluss muss man Nvidia aber auch eingestehen, dass sie mit der Implementierung der raytracing Technologie und dem dlss / dlaa einen Schritt in die richtige Richtung gehen. Nur halt nicht in dieser frühen Form es an den man bringen sollten.

Das ist gerade eher eine Machbarkeitsstudie. Nehmen wir die 60fps @ full HD welche dann stotternd ausgeführt werden bei aktivieren der Funktionen ist das ganze eher mau.

Klar sind die Techniken super aber halt auch 2-3 Jahre zu früh für mein Empfinden.

Dass es natürlich etwas kostet um das ganze auf eine Gaming Karte zu klatschen ist auch klar. Aber die Kosten, welche für den Einsatz von Nvidia's Supercomputer zum Erstellen der Algorithmen entstehen, werden halt auch auf uns bzw die Käufer der Karten weitergegeben. Ist auch kein Vorwurf, würde jeder Hersteller neuer Technologien so machen aber es ist halt noch unausgereift.

Ich hätte mir lieber eine Karte gewünscht die ohne diese Neuerungen gekommen wäre und für den gleichen Preis wie die 1080ti angeboten worden wäre. Durch das verkleinerte Fertigungsverfahren hätte man das durchaus machen können aber naja es ist halt nun mal nicht zu ändern.

Ich für meinen Teil werde nicht kaufen auch wenn die Leistung 75% höher sein wird als mit der Pascal ti. Denn mein Maximum das ich mir persönlich gesteckt habe auszugeben sind 750€ (wie eben die 1080ti) und für das Geld bekomme ich eine neue Karte die maximal 10% mehr leisten kann.

Für Leute die von einer 980 kommen und auf eine 2070 umsteigen wollen, wäre das Leistungsplus hingegen schon bei 110% - 150% und das für 699$

Auch der Preis ist sehr hoch und nicht jeder kann oder will den bezahlen, dennoch würde man Leistung bekommen die höher bzw gleich ist zu einer 1080ti allerdings mit dem dlaa und den Tensor Cores außerdem dem raytracing.

Bin gespannt auf die neuen Chips von AMD die ja eventuell noch Ende dieses Jahres bzw Anfang nächsten Jahres kommen sollen.

Glaubt man den Gerüchten sollen diese die Leistung einer vega64 haben aber so um die 350€ Kosten. Wenn dort auch noch einiges an Neuerungen implementiert wird kann die Leistung eventuell noch höher ausfallen. Naja abwarten. Vor 2019 braucht man meiner Meinung nach erstmal keine neue Karte als Besitzer einer 980ti, 1070, 1080, Vega 56 oder Vega 64.

Alle anderen welche Karten unterhalb der Leistung oben genannter haben könnten dann eventuell im abverkauft ein Schnäppchen machen. Gab letztens bei MF für 399€ eine vega56 und fur 459€ eine 64er (genau genommen auch nicht günstig aber Preis Leistung stimmt da schon eher als bei den neuen Karten) außerdem fallen die preise der Pascals jetzt schon etwas.

Wenn die Benchmarks der neuen NV Karten gut werden kann man auch nochmal mit einem preisfall rechnen und dann können alle die sparen wollen bzw einen nicht so hohen Geldbeutel haben zuschlagen.
 
Zuletzt bearbeitet:
Die Hardware wird nicht wirklich teurer.
Was teuer ist, ist Ungeduld.

Wartet man 1-2 Jahre, kauft sich das Spiel im Steam Weihnachts-Sale für 12,99€ und immer nur Auslaufmodelle an Grafikkarten, kann man sich schon mit wenig Geld über Wasser halten.
Der Spielespaß wird dadurch nicht besser oder schlechter.

Zudem hat man nach 1-2 Jahren in der Regel schon viele Felher behoben, Patches verfügbar etc....
Oder man weiß, dass das Spiel derart verbugt ist, dass es sich gar nicht lohnt.

Die GTX 1080 rutschen langsam deutlich unter die 500€
 
Nachdenklich macht mich das man für DLSS dann Geforce Experience braucht und auch ein Konto bei nvidia.

Nachdem ich jetzt ein klein wenig dazu gelesen habe, stellt sich für mich noch ein weiterer Negativaspekt dar:

Die für das Training notwendige Rechenleistung wird auf einem "Supercomputer" von NVIDIA zur Verfügung gestellt. Einerseits ist man gezwungen, GeForce Experience samt NVIDIA-Konto zu nutzen, andererseits hängt man am Tropf von NVIDIA. Haben die keinen Bock mehr, die Rechenleistung zur Verfügung zu stellen, so verpufft das komplette Feature. Auch ein möglicher Weg, den Enduser zum Aufrüsten zu bewegen, wenn das Feature plötzlich nicht mehr funktioniert, da der Support eingestellt wird. :]

Man befindet sich somit nicht mehr nur in der Abhängigkeit von NVIDIA beim Thema Treiberoptimierung, es kommt der Zwang zu GeForce Experience und sogar die Abhängigkeit an einen "Supercomputer" dazu. Kurzum: NVIDIA bekommt zwei Stellschrauben mehr hinzu, um dem User die Entscheidung abzunehmen, wann es Zeit fürs Aufrüsten ist...

Auch, wenn sich das mittlerweile wie eine defekte Schallplatte anhört/liest: Nein, Danke!
 
Naja nicht ganz. Die Supercomputer werden von den Spieleentwickler mit Daten gefüttert bzw werden Nvidia die Daten zukommen lassen und der Supercomputer erstellt einen Algorithmus. Diesen und nur diesen musst du dir runter laden über das GF XP Gedöns. Die tensor Cores wenden es dann in den Spielen an welches dlaa unterstützen.

Es werden auch nur von Zeit zu Zeit Updates geben um den algo zu verbessern und irgendwann hat man dann auch genug Daten gesammelt um es dem algo.möglich zu machen es auch auf andere neue Games anzuwenden ohne dauerhaft Updates laden zu müssen.

Klar wenn Nvidia oder die Spieleentwickler keinen Bock haben die Daten noch zu teilen bleibt der Algorithmus dann irgendwann auf einem Stand stehen. Aber ich denke es wird in Zukunft auch weiter in die Richtung gehen, auch bei AMD. (Welche ja schon seit jeher besser mit dx12 klar kamen) denn das dlaa und auch das raytracing braucht dx12
 
Klar wenn Nvidia oder die Spieleentwickler keinen Bock haben die Daten noch zu teilen bleibt der Algorithmus dann irgendwann auf einem Stand stehen.

Das wäre ja durchaus ok.

Es gäbe aber auch Mittel und Wege für NVIDIA, das Feature indirekt zu deaktivieren. Wenn eine Grafikkarte beispielsweise nicht mehr supported wird, könnte man die Installation von GeForce Experience und somit die Nutzung verhindern (z.B. bei einer Windows-Neuinstallation). Oder es gibt in GFE die Möglichkeit, bestimmte Grafikkarten vom Zugriff auf die Server "abzukoppeln" oder den letzten übermittelten Stand zu löschen.

Zugegeben: Das sind alles Verschwörungstheorien, welche wahrscheinlich nicht eintreten. Man gibt aber als Nutzer NVIDIA pauschal zwei weitere Möglichkeiten an die Hand, das Nutzungserlebnis des Käufers negativ zu beeinflussen. Ob das jemals passieren wird ist fraglich - die Tür ist dafür aber offen... *noahnung*



Worüber ich direkt froh bin: Dass ich keine Grafikkartenreviews schreibe. *chatt*

Bei der Fülle an technischen Veränderungen und deren potenziellen Auswirkungen auf Benchmarkvergleiche möchte ich nicht in der Haut von den betroffenen Redakteuren stecken. Eigentlich können sie nur verlieren, weil immer etwas suboptimal läuft. *noahnung*
 
Also ist DLSS ein verbessertes AA. Statt einer festen Formel kommt nun ein Algorithmus zum Einsatz. Die Frage ist wie gut dieser arbeitet und ob sich dieser immer richtig entscheidet. Was macht die Karte wenn der Algorithmus in ca 16-18ms keine Entscheidung treffen kann, verwirft es dann komplett die Optimierung oder wird das halbfertige Bild ausgegeben? Warum 16-18ms, das ist die Zeit die für 60FPS die GPU und CPU haben das Bild zu berechnen ohne das es zu Framedrops kommt.

Die weitere Frage ist wie sich dies in bewegten Bildern auswirkt. Wenn ich mich eine Weile nicht bewege also eine Art Standbild habe, kann der
Algorithmus wahrscheinlich das Bild sehr viel besser auf hübschen als bei schnellen Sequenzen. Erkennt das dann dieser Algorithmus und setzt seine Priorität auf FPS oder PIXEL? Wie sieht das Bild dann wirklich aus? Der starke FPS-Sprung auf bis zu 55% mehr Leistung lassen da viele Spekulationen zu.





 
Worüber ich direkt froh bin: Dass ich keine Grafikkartenreviews schreibe.

Ich fürchte hier wird nVidida nichts dem Zufall überlassen und die Leute entsprechen "briefen" für die Reviews - mal schauen welche Seite da beim testen auch mal abweichende Pfade betritt. Die Reaktion bei dem NDA Fall haben bei mir persönlich da einige Zweifel bei bestimmten Kandidaten auf kommen lassen.
 
Titan Xp + 50% mehr frames in UHD + tensor cores + DLAA + raytracing.. liest sich gut - zwei 2080TI bestellt..



(..)

mfg
tobi
 
Wieviel FPS und Leistung schafft sie denn bei einer Auflösung von 3840x2160p also 4k? Nicht das sie die 11 Gb Speicher voll puffert, und dann nur rum stottert. Denk mal bei 2k wird sie nicht so Probleme haben, aber bei 4k kommt sie bestimmt an ihre Grenzen?!
 
auf welches spiel bezogen? ich leite ab dass eine 2080Ti im mittel 0-17% langsamer ist als meine gv100, also bei taktgleicheit. mit raytracing könnte sie doppelt so schnell sein.. darum habe ich auch 2 bestellt. RT mit FHD und 30fps kann man mit mGPU hoffentlich verdoppeln.



(..)

mfg
tobi
 
Titan Xp + 50% mehr frames in UHD + tensor cores + DLAA + raytracing.. liest sich gut - zwei 2080TI bestellt..
Solche Lebensängste kenn ich :) 2 Monate jetzt an dem S3 8P gebastelt (bis diesen Dienstag). Das war schon eine erwähnenserte vierstellige Zahl... Aber jetzt halt mit echtem Punch ;) Dazu daher auch passend das Bild der Woche:
https://www.hardwareluxx.de/communi...x-2070-offiziell-1207378-27.html#post26481092

RT mit FHD und 30fps kann man mit mGPU hoffentlich verdoppeln.
Ich schätze für das klassische 60Hz Vsync ;) wirds nicht ganz reichen. Aber bestimmt wo zwischen 50 und 55.
 
Zuletzt bearbeitet:
mhh ich glaub da hat sich grad eine gute Seite ins Bein geschossen.
Siehe Kommentare unter der zweiten "News"

Why You Shouldn’t Buy Nvidia’s RTX 20-Series Graphics Cards (Yet)
https://www.tomshardware.com/news/wait-to-buy-nvidia-geforce-rtx-gpus,37673.html August 23, 2018 at 6:00 PM

Just Buy It: Why Nvidia RTX GPUs Are Worth the Money
https://www.tomshardware.com/news/nvidia-rtx-gpus-worth-the-money,37689.html August 24, 2018 at 5:20 AM

@TobiWahnKenobi ich hoffe du wirst nicht enttäuscht werden und es skaliert gut mit der anzahl der GPUs.
 
mhh ich glaub da hat sich grad eine gute Seite ins Bein geschossen.
Siehe Kommentare unter der zweiten "News"

Why You Shouldn’t Buy Nvidia’s RTX 20-Series Graphics Cards (Yet)
https://www.tomshardware.com/news/wait-to-buy-nvidia-geforce-rtx-gpus,37673.html August 23, 2018 at 6:00 PM

Just Buy It: Why Nvidia RTX GPUs Are Worth the Money
https://www.tomshardware.com/news/nvidia-rtx-gpus-worth-the-money,37689.html August 24, 2018 at 5:20 AM

Warum? Ist doch gut dass es selbst auf der gleichen Reviewseite unterschiedliche Meinungen gibt. Ich finde das sogar eher gut und vor allem ehrlicher als dieses subtile schwammige Gefasel. Der zweite ist halt ein Freak und liebt aktuellste Technik. Der ersterer siehts halt anders. Sehe ich kein Problem darin.

--- Update ---

Also ist DLSS ein verbessertes AA. Statt einer festen Formel kommt nun ein Algorithmus zum Einsatz. Die Frage ist wie gut dieser arbeitet und ob sich dieser immer richtig entscheidet. Was macht die Karte wenn der Algorithmus in ca 16-18ms keine Entscheidung treffen kann, verwirft es dann komplett die Optimierung oder wird das halbfertige Bild ausgegeben? Warum 16-18ms, das ist die Zeit die für 60FPS die GPU und CPU haben das Bild zu berechnen ohne das es zu Framedrops kommt.

Die weitere Frage ist wie sich dies in bewegten Bildern auswirkt. Wenn ich mich eine Weile nicht bewege also eine Art Standbild habe, kann der
Algorithmus wahrscheinlich das Bild sehr viel besser auf hübschen als bei schnellen Sequenzen. Erkennt das dann dieser Algorithmus und setzt seine Priorität auf FPS oder PIXEL? Wie sieht das Bild dann wirklich aus? Der starke FPS-Sprung auf bis zu 55% mehr Leistung lassen da viele Spekulationen zu.






Das Potential für solche Anwendungsfälle ist auf jeden Fall riesig. Wenn Du heute Computern binnen von wenigen Sekunden Puzzeln oder Autos das autonome Fahren beibringen kannst, dann wird sich durch gleiche Technik vermutlich auch bessere Grafik erzeugen lassen. DeepLearning hat auf jeden Fall riesen Potential in verdammt vielen Anwendungsgebieten. Da Nvidia hier von Anfang an bei der Party dabei war und auch brutal investiert hat auf dem Gebiet gehe ich davon aus, dass sie im Gaming Bereich noch weitere Anwendungsfälle finden werden.

Ich könnt mir sogar vorstellen, dass die durch solche Techniken auch ihre Cloud Gaming Dienste noch weiter ausbauen können. Wenn man das weiter ausbaut und ausreizt kann man vermutlich mit der gleichen Hardware deutlich mehr Performance liefern. AA bzw. auch Auflösungsskalierung ist ein hierfür extrem geeigneter Anwendungsfall. Ein anderer könnte im Bereich Deferred Rendering liegen so dass die Hardware noch besser erkennt was nicht gerendert werden muss oder bessere Vorhersagen treffen kann. Überhaupt kann man mit solchen Techniken die Effizienz nochmal ordentlich nach oben schrauben. Da die Fertigungsverfahren immer komplexer werden und man nicht beliebig schnell bei der Hardware auf den Client Rechnern skalieren kann, könnten zunehmend Rechnerfarmen für verschiedenste Anwendungsgebiete zum Einsatz kommen und Nvidia hat so einige davon bereits weltweit herumstehen. Der Output wird dann vorgefertigt an die PCs mit den Grafikkarten verteilt die das dann über die Tensor Cores verarbeiten.
 
Warum? Ist doch gut dass es selbst auf der gleichen Reviewseite unterschiedliche Meinungen gibt. Ich finde das sogar eher gut und vor allem ehrlicher als dieses subtile schwammige Gefasel. Der zweite ist halt ein Freak und liebt aktuellste Technik. Der ersterer siehts halt anders. Sehe ich kein Problem darin.
Ich wiederhole mich mal:

Dann gehört das in ggf. seinen Blog und nicht auf THG. Von THG erwarte ich objektive und nicht subjektive Texte. Jedenfalls, nicht so glasklare, unverhüllte subjektive Texte.
Wer geht auf THG, weil er sich für die persönliche Meinung eines Avram Piltch interessiert? Oder für sein Problem, privates und berufliches entsprechend zu trennen? Wenn das bei ihm nicht so funktioniert, dann hat er sich den falschen Beruf ausgesucht. Oder, die falsche "Zeitung".
Oder doch nicht die flasche "Zeitung". Dann sollte man halt nicht ihn und nicht den Text, sondern THG selbst neu bewerten.

DLSS unterleigt weiterhin NDA. Gesammelte Infos sagen mir, das sind Spielprofile. Optimierungen im Treiber, wie bisher auch, nur der Ansatz ist anders. Sehr grob gesagt:
Wenn die Telemetrie :D genug Spieler mit einem Spiel meldet, kriegt der Treiber die Meldung irgendeinen (Shader?)Code/Frames aus dem Grakaram zu ziehen und jenes wird auf deren DGX-1 geworfen.
Da läuft eine Soft die den Code selbst optimieren kann. Und alle bekommen dann als inlet eine Treiberoptimierung für das Spiel. Ein Configfile für den Treiber.

Wir werden aber bald erfahren was es wirklich ist :)
 
Zuletzt bearbeitet:
Die ganze Diskusion verstehe ich wirklich nicht so recht. Online nicht Online?

Was für ein Spiel kann man überhaupt noch offline spielen? W10 hat eine Standleitung nach Hause. Alles was man so im Browser eingiebt wird ausgewertet und verwurstet.
Und wieviele PCs werden noch offline betrieben?

Das ganze Ding mit dem I-Net ist halt so aufgebaut. Negativ finde ich halt das alles nur mehr für Power Gamer entwickelt wird. Wenn ich da an die Bilder von der Gamscom denke. Doch sehr abgehoben. Da wird immer mehr an ins Bild gepackt da wird alles dann doch sehr unübersichtlich. Oder vll werd ich einfach alt.....;D

Es wird zwar immer vom deep learning gesprochen aber es bleibt einfach eine künstliche Inteligenz. Die reale Umwelt kannst mit einem Progrämmchen nie erfassen.
 
Why You Shouldn’t Buy Nvidia’s RTX 20-Series Graphics Cards (Yet)
https://www.tomshardware.com/news/wait-to-buy-nvidia-geforce-rtx-gpus,37673.html August 23, 2018 at 6:00 PM

Just Buy It: Why Nvidia RTX GPUs Are Worth the Money
https://www.tomshardware.com/news/nvidia-rtx-gpus-worth-the-money,37689.html August 24, 2018 at 5:20 AM
dazu gibt es lustigerweise einen passenden kommentar aus deutschland ...

Sind wir RTX On oder RTF Off? Kauf(nicht)empfehlung, Kollegenschelte und der gesunde Menschenverstand

und damit ist zu dem quark aus den usa auch alles gesagt. ;)
 
Zurück
Oben Unten